Gli studenti sono soggiogati dall'AI e dal suo "sapere totale", ma è facile dimostrare i suoi limiti. Il compito della scuola (1)
In queste ultime settimane mi è capitato di intercettare alcune “istruzioni per l’uso” e indicazioni di corsi destinati agli insegnanti per imparare a usare l’intelligenza artificiale (AI) a scuola. Mi sembra che l’entusiasmo che le accompagna riveli una certa ingenuità o superficialità che possono indurre a sottovalutare le implicazioni che i nuovi sistemi possono avere soprattutto sulle relazioni educative.
In un linguaggio seduttivo tipico del marketing di massa, si leggono slogan come: “Lezioni, verifiche e materiali pronti in 10 minuti con ChatGPT”, “È la rivoluzione dell’estate nella didattica”, e simili. Si tratta di messaggi a forte impatto persuasivo, concepiti più per promuovere un prodotto o un servizio che per sostenere in modo serio e consapevole il lavoro degli insegnanti.
L’AI non è da demonizzare, ma nemmeno da accogliere acriticamente come un normale strumento didattico fra i tanti, perché crea un mondo prima sconosciuto.
Attraverso un empirico sondaggio tra una cinquantina di colleghi, ho potuto costatare che attualmente il suo uso nell’ambito dell’insegnamento è per lo più limitato a operazioni tecniche e pratiche, come la preparazione di esercizi, la correzione di testi, scrivere e-mail, rivedere brevi rapporti, ecc. Alcuni insegnanti la usano in classe per piccole ricerche, con la consapevolezza – almeno tra i docenti più attenti – della necessità di controllare l’autenticità dei lavori prodotti dagli studenti.
Queste constatazioni possono risultare rassicuranti; in fondo non siamo di fronte, almeno nella scuola, a una rivoluzione. Mi chiedo: ci basterà adeguarci e seguire con fiducia le istruzioni per un uso corretto delle nuove applicazioni dell’AI, così da rafforzare la nostra capacità di integrarle in modo consapevole nella pratica didattica? Una costatazione, apparentemente banale, del New York Times, testata aperta alle innovazioni e tra le più influenti al mondo, mi ha aperto uno sguardo più critico sulle trasformazioni in atto.
Una giornalista e professoressa di scrittura alla Yale University in un articolo del 18 luglio 2025 si pone questo interrogativo: “Cosa succede agli studenti che non hanno mai sperimentato la gratificazione di spingersi verso un pensiero sfuggente finché non si arrende rivelandosi in una sintassi chiara? Credo che questa sia la domanda urgente. Per ora, molti di noi si avvicinano ancora all’AI da outsider: utenti non nativi, plasmati da abitudini analogiche, capaci di cogliere la differenza tra oggi e ieri. Ma la generazione che crescerà con l’AI imparerà a pensare e scrivere alla sua ombra”.
Stiamo imparando quali opportunità offrono programmi che simulano una interazione umana, come ChatGPT, anche in campo scolastico. Ma mi sembra necessario ora metterne in evidenza alcune caratteristiche che possono aiutarci a capire la portata del rischio di cui parla l’articolo citato.

I chatbot con cui sempre più spesso dialoghiamo sono piattaforme fondate su algoritmi probabilistici capaci di apprendere la concatenazione delle parole sulla base di miliardi di esempi tratti dal web. Su questa base imitano la capacità umana di scrivere generando frasi con una coerenza, appunto, statistica. Allo stesso modo possono produrre musica, immagini, disegni. L’AI generativa, che simula un’interazione umana, lavora su modelli statistici: non mira alla verità dei contenuti, ma alla probabilità che una parola segua logicamente un’altra, in un determinato contesto. Non sa cosa dice perché non ha accesso alla realtà, ma solo ai dati presenti sul web. I chatbot funzionano così bene che li trattiamo come altri noi stessi.
Questa, mi sembra, è la questione centrale: l’IA non conosce il mondo perché non ne ha esperienza, imita noi esseri umani che impariamo proprio dall’esperienza. Non può comunicare un vissuto, un punto di vista originale, o aprirsi all’imprevisto e al possibile. Non formula ipotesi, non sente nostalgia, non ha memoria viva, non conosce desideri. Sa tutto, o molte più cose di noi, ma non conosce l’essenziale. Un musicista italiano osservava che l’AI conosce molta più musica di quanta ne conoscessero Bach e Beethoven, ma non ha una personalità. Si presenta (apparentemente) come sapere totale, ma non produce vera arte.
A scuola possiamo proporre l’uso dell’AI ai nostri allievi, spiegando che è “artificiale”; che non c’è un autore che elabora le informazioni. Soprattutto per le nuove generazioni è grande il rischio di concepire l’AI non come un mondo parallelo, ma come una realtà che ci sta colonizzando. La sua forza rassicurante già ora vince i nostri dubbi, le nostre fragilità, e soffoca perfino le nostre aspettative, che nascono dal riconoscimento di esperienze positive vissute in prima persona, come mostra l’esempio che segue.
In una classe un collega legge l’episodio del ritorno di Ulisse e l’incontro con Penelope dopo venti anni di assenza. Ulisse, come sappiamo, non rivela subito la sua identità. In classe i ragazzi si coinvolgono e formulano molte ipotesi che cercano di spiegare il suo comportamento, paragonandosi con Ulisse (che loro vedono come un padre) e con il testo di Omero. L’insegnante propone poi un test alla classe, lasciando che gli allievi usino l’AI.
Potere della tentazione: le risposte dell’AI hanno il sopravvento sul confronto vivo dei ragazzi. Gli allievi espongono un elenco di ragioni sul comportamento di Ulisse, generiche e piatte, senza vita. Le loro spiegazioni sono impersonali, non c’è traccia del lavoro di paragone con il testo omerico e con la loro esperienza.
Occorre, come scriveva il filosofo franco-argentino Miguel Benasayag, “il coraggio dell’esistenza”. E questa è una sfida, che abbiamo di fronte, soprattutto in ambito educativo per riscoprire chi siamo e non rinunciare al desiderio di vera soddisfazione che ci fa incontrare potenzialmente la realtà infinita.
(1 – continua)
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
