BENVENUTO   |   Login   |   Registrati   |
Imposta Come Homepage   |   Ricerca Avanzata  CERCA  

ISTRUZIONE/ Gli "strani" risultati delle prove nazionali di terza media: cos’è successo nelle scuole del Sud?

Pubblicazione:

scuola_alunni_aulaR375_25ago08.jpg

Precedute da molti rumors e da una indiscrezione giornalistica giungono alfine le notizie sulla prova standardizzata esterna collocata da quest’anno all’interno dell’esame di terza media.

I fatti.

La legge 53 (Riforma Moratti) all’art 3 prevede che all’interno degli esami di stato vi sia una parte, non solo definita, ma anche corretta a livello nazionale.

Dopo qualche rinvio dovuto probabilmente alla delicatezza dell’innovazione, il Ministro Moratti diede ordine all’INVALSI di prepararla, ma alla vigilia delle elezioni.

Cambiò il governo.

Il Ministro Fioroni fu colto nel primo anno dalle stesse perplessità del Ministro Moratti, ma alla fine sbloccò di nuovo la situazione ed ecco che per la prima volta gli studenti di terza media nel giugno 2008 hanno dovuto rispondere a prove sul core curriculum (italiano e matematica) con griglie di correzione definite centralmente. Per addolcire la pillola e stemperare le ostilità ogni commissione poteva decidere che farsene dei risultati. Sarebbe interessante fra l’altro sapere qualcosa in proposito.

I due ministri non hanno agito di fantasia, ma hanno voluto o dovuto importare degli strumenti di garanzia della attendibilità dei voti liberamente (forse troppo liberamente…) dati dalle scuole. De maturità fabula narratur.

Escono ora con un certo ritardo i risultati del campione a suo tempo estratto.

Il ritardo si spiega.

I risultati infatti rovesciano gli esiti di PISA 2000, 2003 e 2006, di tutte le valutazioni internazionali precedenti a partire dagli anni 70 ed anche dell’ultima valutazione campionaria delle scuole effettuata da INVALSI nel 2007. Le scuole campionate del Sud sono superiori a quelle del Nord in Matematica di 1,5 punti, in Italiano di 3,9 punti ed in Grammatica in particolare di ben 7 punti su 100.

Il profano benevolo non capisce dove sta il problema.

Non può essere che gli studenti del Sud rispondano meglio in questo caso perché le domande rispondono maggiormente alle logiche di una preparazione scolastica magari più tradizionale di quella ipotizzata da PISA? e che gli stessi studenti si sentano motivati a dare il meglio di sé in prove di cui capiscono l’utilità personale? se così fosse sarebbero eventualmente da accusarsi di opportunismo, ma non di ignoranza.

Indubbiamente molti pensano, probabilmente con qualche ragione, che i risultati così bassi del Sud in PISA siano anche causati da questi fattori e non a caso ci si sta anche muovendo a livello centrale per motivare e preparare di più insegnanti e studenti a PISA 2009, in modo che diano di sé una immagine più realistica e migliore.

Ma c’è un ma.

Purtroppo il trattamento dei dati statistici può intuire dove si bara. All’interno dei gruppi classe i risultati, soprattutto in competenze strumentali di base, tendono a disporsi secondo una forma a campana: pochi alle estreme, molti nel mezzo. Naturalmente la campana può collocarsi a livelli diversi a secondo del livello di competenza del gruppo. Se invece di una campana abbiamo un leggero dosso o addirittura una tavola, c’è qualcosa che non va. Se il dosso sta in basso vuol dire che la domanda era troppo difficile, se sta in alto che era troppo facile o che qualcuno ha copiato. Ma se in altri contesti si verifica dalle risposte che la domanda non era troppo facile, perché la percentuale delle risposte esatte è normale, è la seconda ipotesi quella giusta.

Ed infatti nel comunicato INVALSI si parla di scuole con risultati di eccellenza in stragrande maggioranza collocate al Sud (20 su 24).

Che fare? Anche i dati delle somministrazioni censuarie ai tempi della Moratti avevano avuto lo stesso problema negli stessi territori. Dovremo rinunciare, come dice qualcuno, a fare valutazioni su tutti e limitarci ai campioni blindando le somministrazioni come i termovalorizzatori?

Purtroppo i dati dei campioni non servono per la valutazione delle scuole e per dare attendibilità ai titoli di studio. L’utilità di piccoli PISA nazionali è relativa.

Al contrario, a partire da questo caso, per completare l’utilizzazione di questi preziosi dati, sarebbe utile che le scuole potessero collocare i loro risultati all’interno del loro contesto, per sapere a che punto stanno e che si abbozzasse qualche ipotesi sul dove collocare il livello di accettabilità, cioè il 6, ovvero il sufficiente.

Il cittadino peraltro si domanda se non ci siano strumenti amministrativi per garantire l’attendibilità dei dati; forse abbiamo finalmente trovato un oggetto concreto su cui valutare i dirigenti.



© Riproduzione Riservata.
 

COMMENTI
16/10/2008 - Le statistiche sono serie solo se vince il Nord (Greco Gaetano)

L'articolo suggerisce un sospetto sui risultati migliori per il Sud. Insomma, se vincono gli studenti del Sud è perchè il compito è stato copiato, un pò come nei concorsi, dove se vincono quelli del sud è perchè sono raccomandati... Tragicomico. Una valutazione che assomiglia a quella di certi alunni un pò somari che quando non capiscano accusano il professore di essere meridionale. Forse invece sarebbe il caso di riflettere sul valore che diamo a prove che non ne possono avere. I test Pisa non sono somministrati con criteri che ne consentano una validazione di sistema. Se la scuola sceglie di assegnarli a poche classi selezionate i risultati sono falsati, ed in ogni caso nulla garantisce sulla serietà dello svolgimento delle prove. Se si vuole davvero valutare le scuole bisogna predisporre le prove su criteri condivisi, ufficializzare la serietà di svolgimento e la correzione, e soprattutto bisogna organizzarn elo svolgimento in modo che si sappia in partenza che i risultati saranno usati magari con la finalità di valutare il singolo istituto. Altrimenti il rischio di sottovalutazione o di alterazione o peggio di furbizia determina l'inattendibilità. Che è tale per il Nord e per il Sud.

 
16/10/2008 - efficienza e valutazione (Anna Di Gennaro)

Concordo sull'urgenza della valutazione dei dirigenti scolastici. La mia esperienza di ricerca di questi ultimi anni ne mette in luce diverse carenze di gestione efficace delle numerose situazioni a rischio.