Il divario tecnologico e informativo che esiste sull'intelligenza artificiale tra docenti e studenti nella scuola complica enormemente la risposta educativa
Il recente articolo di Giuseppe Santoli coglie nel segno nel descrivere la sfida educativa posta dall’intelligenza artificiale, ma forse sottovaluta un ostacolo fondamentale: la scarsa consapevolezza di buona parte della comunità educante e degli adulti in generale.
Non si tratta solo di formare “nuovi” docenti per un mondo che cambia. Si tratta prima di tutto di convincere chi già insegna, chi dirige le scuole, chi fa politica scolastica, che il cambiamento non è più una possibilità futura, ma una realtà presente che sta già trasformando le aule, mentre ancora discutiamo se sia il caso di aprire la porta.
Penso spesso a Photomath, l’applicazione che quasi tutti gli studenti hanno installata sul telefono e che praticamente nessun adulto conosce. Basta inquadrare con la fotocamera un problema di matematica, un’equazione, un’espressione algebrica, e l’app non solo fornisce la soluzione, ma mostra tutti i passaggi intermedi, spiega il procedimento, offre metodi alternativi di risoluzione.
È come avere un tutor di matematica sempre disponibile in tasca, gratuito, paziente, che non ti giudica se sbagli. Mentre i docenti assegnano esercizi, convinti che gli studenti li svolgano con carta e penna, i ragazzi semplicemente fotografano il problema e in pochi secondi hanno la soluzione completa davanti agli occhi.
Non è barare, dal loro punto di vista. È semplicemente usare gli strumenti che la tecnologia “mette a disposizione”. Eppure quanti insegnanti di matematica sanno che Photomath esiste? Quanti ne hanno mai discusso in collegio docenti? Quanti hanno ripensato il modo di assegnare i compiti sapendo che questa risorsa è accessibile a tutti con un semplice smartphone?
La risposta, nella maggior parte dei casi, è devastante: nessuno. Gli adulti continuano a progettare una didattica come se fosse ancora il 1995, mentre i ragazzi vivono già nel 2025.
Questa inconsapevolezza diffusa complica enormemente il percorso di cambiamento. Come può un docente insegnare a “restare umani mentre usiamo l’AI”, se lui stesso non ha mai riflettuto sul proprio rapporto con la tecnologia? Come può la scuola diventare “spazio di autenticità”, se gli adulti che la abitano continuano a vivere nel rifiuto o nell’ignoranza degli strumenti che i ragazzi usano quotidianamente?
Non si tratta di demonizzare Photomath o applicazioni simili. Si tratta di prendere atto che esistono, che funzionano, che sono parte integrante dell’ecosistema di apprendimento degli studenti. Fingere di non vederle è come pretendere di insegnare geografia usando solo mappamondi, mentre tutti consultano Google Maps.
Il divario generazionale non è mai stato così ampio. I ragazzi hanno accesso a strumenti di intelligenza artificiale che risolvono problemi complessi, generano testi articolati, creano immagini, compongono musica, traducono istantaneamente in decine di lingue. E lo fanno con la naturalezza con cui noi usavamo la calcolatrice. Ma la maggior parte degli adulti, inclusi molti insegnanti, vive in una sorta di analfabetismo tecnologico che impedisce qualsiasi dialogo educativo significativo su questi temi. Come si può educare a un uso critico e consapevole dell’AI se non si conosce nemmeno ciò che i ragazzi utilizzano ogni giorno?
E qui arriviamo a un punto cruciale che l’articolo sfiora, ma che merita ulteriori approfondimenti: la pericolosa tendenza a umanizzare l’intelligenza artificiale.

Quando parliamo di AI come “rifugio emotivo” o di assistenti virtuali che “simulano l’amicizia”, stiamo già commettendo un errore fondamentale. L’intelligenza artificiale non è un amico, non è uno psicologo, non ha emozioni né intenzionalità. È uno strumento, sofisticatissimo quanto si vuole, ma pur sempre uno strumento. Attribuirle qualità umane significa aprire la strada a distorsioni pericolose: lo psicologo artificiale che promette terapia senza essere vincolato da alcuna deontologia professionale, il confidente virtuale che raccoglie dati personali mentre simula empatia, il tutor personalizzato che in realtà standardizza i percorsi di apprendimento secondo logiche algoritmiche invisibili.
Tutti – e sottolineo tutti – dobbiamo imparare a non umanizzare l’AI. Questo vale per gli studenti che chattano con ChatGPT come se fosse un amico, ma vale soprattutto per gli adulti che progettano il futuro della scuola.
Perché se cadiamo nella trappola dell’antropomorfizzazione, finiremo per delegare all’AI compiti che appartengono esclusivamente alla dimensione umana: il giudizio morale, la comprensione emotiva profonda, la costruzione di significati condivisi attraverso la relazione autentica. Photomath non capisce la matematica, elabora pattern. ChatGPT non ragiona, predice sequenze di parole. Riconoscere questa differenza fondamentale è il primo passo per un uso educativo e non alienante della tecnologia.
Ma non tutto è immobilismo e resistenza al cambiamento. Esistono luoghi, scuole concrete con nomi e indirizzi, dove stanno nascendo pratiche innovative che andrebbero raccontate e diffuse. Ci sono istituti che hanno sviluppato modelli linguistici specializzati addestrati sui propri materiali didattici, creando assistenti personalizzati che dialogano con gli studenti nello stile pedagogico della scuola stessa, senza sostituire i docenti, ma potenziandone l’azione.
Ci sono esperienze di didattica personalizzata dove l’AI analizza i percorsi di apprendimento individuali e suggerisce ai docenti interventi mirati, liberando tempo prezioso per la relazione educativa invece che per la correzione meccanica di esercizi standardizzati. Ci sono laboratori dove gli studenti non usano l’AI per copiare i compiti, ma per esplorare processi creativi, generare ipotesi di lavoro, confrontare diverse soluzioni a problemi complessi.
Queste esperienze esistono, funzionano, stanno già trasformando il modo di fare scuola. Non sono fantasie futuriste o progetti pilota destinati a rimanere sulla carta. Stanno accadendo adesso, in questo momento, mentre molti ancora discutono se sia il caso di permettere ai ragazzi di usare il cellulare in classe. Il problema è che queste buone pratiche rimangono spesso confinate in contesti isolati, celebrate in qualche convegno di settore, ma mai davvero sistematizzate e diffuse. Manca una narrazione ampia, manca un racconto collettivo che mostri come la scuola possa cambiare senza perdere la propria anima.
Santoli ha ragione quando dice che serve una trasformazione epocale, ma questa trasformazione sarà possibile solo quando la maggioranza della comunità educante prenderà coscienza che il mondo è già cambiato. Non possiamo continuare a formare docenti per una scuola che non esiste più, come non possiamo continuare ad assegnare esercizi di matematica ignorando che ogni studente ha Photomath in tasca. La differenza è che la scuola non può semplicemente diventare obsoleta e scomparire. Deve evolvere, rapidamente, consapevolmente, coraggiosamente.
E per farlo, deve prima di tutto smettere di guardare all’intelligenza artificiale come a un nemico da combattere o a un amico da abbracciare. Deve riconoscerla per quello che è: uno strumento potentissimo che amplifica le nostre capacità, ma non può sostituire la nostra umanità. Un amplificatore che, nelle mani di una comunità educante consapevole e formata, può davvero aiutare a costruire quella scuola dell’autenticità e del senso che tutti invochiamo. Ma che, lasciato in mano a chi ancora pensa che basti vietare per risolvere, o peggio, a chi semplicemente ignora che esista, rischia di rendere la scuola irrilevante per intere generazioni di studenti.
Il cambiamento non aspetta che siamo pronti. Il cambiamento accade, con noi o senza di noi. Photomath è già nelle tasche di milioni di studenti, ChatGPT è già parte del loro modo di studiare, l’AI è già nel loro quotidiano. La vera domanda è: vogliamo guidare questo cambiamento o continuare a ignorarlo fino a quando sarà troppo tardi?
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
