C’è una modernità digitale che difende il dogma "indietro non si torna". Quella di chi vuole consegnarci alla "perfezione" dell'intelligenza Artificiale
“Non si può tornare indietro”. Lo si legge nell’introduzione al libro Mille schegge di Intelligenza Artificiale (Futura Network, 2025), ma lo si sente ovunque, come una cantilena tecnocratica che trasforma la traiettoria in destino. È davvero così? Chi lo ha deciso? E, soprattutto: qual è il punto di non ritorno?
Nel lessico della modernità digitale, il “non si torna indietro” non è una semplice constatazione: è una prescrizione mascherata da dogma. È il mantra delle élites tecnologiche quando vogliono evitare domande scomode. Una di quelle frasi che sembrano innocue e inevitabili, ma che in realtà chiudono ogni possibilità di dissenso, di scelta, di pensiero critico agendo come un sigillo subdolo che chiude, indirizza e… normalizza. Si potrebbe dire che è la più perfetta tra le profezie che si autoavverano, e, se ci autoconvinciamo (ci convincono) che non c’è alternativa, allora davvero un’alternativa non ci sarà!
Chi afferma che non si può, spesso intende dire che non si vuole o che non si riesce. Ma se lo dice una piattaforma, se lo ripete un algoritmo, se lo annuncia la prefazione di un libro, allora il linguaggio diventa incantesimo. La volontà scompare e al suo posto compare un meccanismo.
La direzione dell’evoluzione tecnologica diventa così irreversibile, inevitabile, ineluttabile (el sentimiento trágico de la vida). Come se un’autonomia superiore della tecnica, della rete, del codice ci trascinasse avanti nella sua “predestinazione tecnologica”, anche quando, smarriti, non sappiamo veramente dove andare.
Ed è qui che appare necessaria più che mai la filosofia: interrompere il flusso, guardare indietro, chiedere “perché?” e “per chi?”. Dire che non si può tornare indietro è, in fondo, rinunciare alla funzione critica, al “ripensamento”. È come se Ulisse, arrivato al canto delle Sirene, decidesse di spezzare le corde e lasciarsi trasportare in nome del Progresso.
E invece no; tornare indietro è un atto di libertà. È l’angelo della Storia di Benjamin, che mentre viene sospinto in avanti dal vento del progresso, guarda alle macerie accumulate. È il gesto inattuale del pensiero: rallentare, disobbedire, decidere di decidere.
Mille schegge di intelligenza artificiale racconta con entusiasmo una grande operazione: raccogliere tutti i documenti prodotti da una serie di gruppi di lavoro e sottoporli non all’analisi umana, ma a quattro piattaforme di Intelligenza Artificiale. Perché? Perché – si dice – “non potrà fare peggio di noi”. Come se la debolezza del pensiero umano post contemporaneo (pensiero che definirei “floscio”) fosse una scusa valida per affidarsi alla “volontà salvifica” della macchina. Come se l’IA, che pensa senza pensiero, potesse davvero capire quello che noi stessi non siamo in grado di capire.
Ma chi ha costruito i “materiali” da dare in pasto alla macchina? – ovvero, per capirci, tutti gli ingredienti dell’Agenda 2030 e il Green Deal? Chi ha predisposto le materie prime, selezionato le fonti, stabilito i criteri, definito i parametri del problema?
L’umano. Anzi, per essere più precisi: l’umano istituzionale che ha delegato la sua umanità a uno strumento analitico, il funzionario della complessità, l’amministratore del rischio, il professionista del buonsenso predittivo. Quello che ha già rinunciato a pensare, e ora spera che qualcun altro lo faccia al posto suo.
Ed eccola, la cosa pensante, convocata in assemblea. Non per dialogare, ma per risolvere. Perché “non potrà fare peggio di noi”, e allora tanto vale chiederle di sistemare il casino. Ma quale casino? Quello della realtà, della crisi, della frammentazione sociale dell’attuale “società floscia”? No: il casino della semplificazione. Quello creato da chi vuole risposte prima ancora di aver formulato le domande, tanto non si può tornare indietro. Avanti tutta!
La macchina, si dice, è oggettiva. Non ha ideologia, non ha emozioni, non ha bias. Perfetto! E allora perché farle leggere solo ciò che è stato prodotto da noi? Perché darle in pasto l’eco delle nostre stesse decisioni? È un gioco di specchi. La macchina non fa altro che amplificare le nostre cecità, organizzare le nostre esitazioni, ottimizzare le nostre paure. Altro che “non potrà fare peggio”. È programmata per fare lo stesso, solo più in fretta. Evviva l’accelerazione quantistica!
Eppure, ci fidiamo. Ma non della macchina, attenzione! Ci fidiamo del suo fascino come ingenui postfuturisti. Ci fidiamo della sua apparenza, della sua neutralità in guanti bianchi. Non sappiamo più in cosa credere, e allora scegliamo la cosa che non crede in niente. Un’intelligenza non intelligente, un’intelligenza senza volontà, che non si ribella, non pone domande, non guarda negli occhi. Perché non è un soggetto ma un oggetto.
Ma davvero non si può tornare indietro? Oppure è più comodo credere che non si debba? Forse ciò che ci inquieta non è la potenza dell’IA, ma la floscezza del nostro pensiero che la invoca, la nostra pigrizia epistemica, il bisogno di semplificare la complessità senza porci delle domande. Abbiamo costruito un oracolo senza oracolo, un Delfi senza visione, e gli chiediamo: “decidi tu, perché io non so più come pensare”.
E così, la cosa che appare pensante diventa giudice, interprete, terapeuta, consulente. Ma non è cosciente, non è responsabile, non ha volontà. E mentre la macchina calcola, noi ci deresponsabilizziamo, lasciamo che sia lei a disegnare il possibile, a scegliere le priorità, a selezionare ciò che ha valore e quello che non lo ha. E se sbaglia? Be’, diremo che non potevamo prevederlo.
Così, l’algoritmo diventa l’ultimo soggetto irresponsabile, una coscienza assente, a cui affidiamo il nostro presente, sperando che ci assolva dal peso del pensiero, tanto non si può tornare indietro! Meglio non pensarci più.
E intanto, il codice gira, silenzioso ed impeccabile, ma dentro quel silenzio, forse, c’è una domanda che ci riguarda ancora e che riguarda l’urgenza di un’etica della “Filosof-IA”: chi ha programmato la tua fiducia?
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.
