BENVENUTO   |   Login   |   Registrati   |
Imposta Come Homepage   |   Ricerca Avanzata  CERCA  

SCUOLA/ Tutto quello che prof e scuole non hanno capito dell’Invalsi

Pubblicazione:

Foto: Fotolia  Foto: Fotolia

Le argomentazioni, e anche una serie di dati tecnici che le supportano, sono a disposizione per entrare in un dibattito di fatto nuovo per l’Italia. Non abbiamo una grande tradizione di strumenti statistici di misurazione degli apprendimenti, l’analisi classica degli item solo da poco è stata aggiornata con metodologie più adeguate (IRT), che peraltro erano presenti a livello Ocse da moltissimi anni, ma importate pionieristicamente solo nei primi anni del 2000 in Lombardia. Di fatto l’Invalsi percorre anch’esso una strada di progressivo miglioramento: le tecniche di cheating necessarie per fornire dati nazionali depurati dei comportamenti opportunistici sono state affinate nel tempo, il Quadro di riferimento è almeno alla terza edizione e viene aggiornato e reso sempre più coerente, i rapporti diventano più espliciti e leggibili per chi vuole impegnarsi nella loro lettura. Del resto anche la scuola “migliora”: cala il numero delle risposte omesse (soprattutto nelle domande aperte), in molte regioni si ridimensiona il fenomeno dei comportamenti opportunistici (copiature).

Registro nel Rapporto nazionale sugli esiti delle prove alcuni punti nuovi: non bastano solo gli esiti in termini di percentuali di risposte corrette (i dati cosiddetti grezzi), ma sono necessari anche quelli che tengono conto del livello di difficoltà. “Per comprendere a fondo l’informazione didattica che si può trarre dall’esito di una o più domande è necessario, in primo luogo, valutare la difficoltà del quesito. Una percentuale elevata di risposte corrette non è di per sé né un’indicazione positiva né negativa. Innanzitutto, è importante comprendere se la domanda oggetto d’interesse è facile o difficile in senso propriamente psicometrico (p. 144 del Rapporto nazionale). Questo pone il problema dell’agganciamento reciproco dei test, che è cruciale per la possibilità di misurare non solo lo stato degli apprendimenti delle scuole, ma la variabilità da un anno all’altro (Capitolo II) e in prospettiva il valore aggiunto fra l’inizio e la fine del ciclo che ogni scuola è in grado di offrire ai propri studenti.



< PAG. PREC.   PAG. SUCC. >


COMMENTI
23/08/2011 - “prof e scuole non hanno capito” (!) (Vincenzo Pascuzzi)

Torniamo all’articolo e al suo titolo. Improprio, colpevolizzante, da padrone a sottoposto risulta già il titolo dell’articolo: “prof e scuole non hanno capito” (!). Notarbartolo, per conto dell’Invalsi, mette le mani avanti e i prof e le scuole sul banco degli accusati, da subito e a prescindere. Si esclude l’ipotesi e l’eventualità: “noi dell’Invalsi non siamo stati chiari, non ci siamo spiegati, forse la colpa è anche un po’ nostra, dovevamo parlarne”. No! Sono loro – prof e scuole - che non hanno capito! D’altronde la chiamata in causa, la messa in stato di accusa e la condanna per direttissima e senza potersi difendere (inaudita altera parte) per i docenti è diventata un po’ la condizione di default: qualsiasi malfunzionamento o carenza della scuola viene attribuito alla loro colpa. Mentre viene ignorata (non assolta, proprio ignorata!) tutta la gerarchia, dai d.s., o presidi, fino al ministro, passando per gli usp, gli usr, gli assessorati comunali, provinciali e regionali. “Le prove Invalsi sono come un metro della sarta”. Così sosteneva la Notarbartolo ancora pochi mesi fa paragonando l’Invalsi addirittura al Bureau International des Poids et Mesures di Sèvres! Non ci siamo proprio, lasciamo stare le misure e i metodi della Fisica che sono tutt’altra cosa. Lasciamo stare anche il metro della sarta. Come già abbiamo lasciato stare il termometro evocato dal prof. Andrea Ichino. leggi tutto: http://www.retescuole.net/contenuto?id=20110823094708

 
18/08/2011 - Prove INVALSI (Margherita Vitale)

Sono d'accordo sul fatto che serva un sistema di valutazione nazionale. Sono assolutamente d'accordo sul fatto che i tests sono ben strutturati, che gli items sono differenti nei livelli di difficoltà, ma se non servono a valutare scuole e docenti in modo indiretto: - perché poi INVALSI fa la "classifica" per regione? Potrebbe dare i dati generali senza specificare la regione; - perché ogni volta si devono criminalizzare le scuole del sud (accusate di gonfiare i voti) che sono in contesti e finanze ben diverse da quelle del nord, senza tener conto del fatto che molto spesso al sud si deve lottare anche con la dispersione scolastica? - qualcuno ha mai capito come INVALSI sceglie le classi campione? quali sono i criteri? Non vi sembra un po' troppo semplicistico e vago questo sistema? Se INVALSI non valuta, cosa fa? E poi siamo sicuri che applicare un sistema psicometrico sia effettivamente affidabile in contesto educativo? E poi perché INVALSI manda i tutors nella mia scuola che di fatto vengono a fare rilevamenti da Ispettori e poi non restituisce i reports di queste persone? Come fa una scuola a migliorare se non viene a conoscenza dei punti critici rilevati? Basta solo il punteggio ottenuto dagli allievi nelle prove? Ancora troppi interrogativi a cui dare risposte "serie" e precise.

 
18/08/2011 - lupus et agnus (enrico maranzana)

“Da un lato aleggia una certa approssimazione sul perché si fanno queste prove, ma soprattutto è ancora scarsa l’efficacia delle informazioni ottenute dalle misurazioni ai fini del miglioramento per il sistema”.. “Nella speranza di dare agli insegnanti elementi utili non tanto alla normalizzazione dell’operazione-prove, quanto alla coscienza critica e vigile sulla loro utilità” sono frasi originate dall’indeterminatezza delle finalità del SISTEMA educativo di istruzione e formazione. Se le indicazioni nazionali fossero state concepite come armonico sviluppo dell’impianto concettuale del regolamento (CFR ad esempio il profilo culturale, educativo e professionale dei licei con i relativi obiettivi specifici dell’apprendimento) e fossero stati enunciati i traguardi in termini di competenze (CFR modello di certificazione al termine dell’obbligo) non sarebbe stata ravvisata la necessità di richiamare “la totalità degli insegnanti di italiano ad essere meglio informati”, critica che, nella sostanza, addebita al corpo docente responsabilità non sue.