In generale l’etica non mi piace. E ancor meno mi piace quando qualche filosofo si mette a scrivere “l’etica di…” qualche nuova scienza o tecnologia di moda, perché in genere è solo un modo di guadagnarsi un po’ di visibilità a buon mercato, senza doversi troppo sforzare per capire davvero ciò di cui si sta parlando, dato che la demagogia moralistica è sempre stata (e lo è ancor più oggi, nella “società degli indignati”) una formidabile arma per accalappiare pubblico a prescindere dai contenuti.
Non è questo, però, il caso del libro di Luciano Floridi, filosofo italiano che è riuscito a diventare una delle voci più ascoltate a livello mondiale sui temi della IA proprio grazie alla sua grande conoscenza della materia, al tempo stesso ampia e profonda (e, come diremo, anche a un’altrettanto grande, benché non sempre altrettanto lodevole, abilità politica).
Ancor più notevole è il fatto che Floridi sia riuscito in questo intento mantenendo un’impostazione filosofica solida e di ampio respiro (non analitica, per capirci) e facendo spesso affermazioni tanto documentate quanto controcorrente. Ed è proprio questo che lo ha condotto a parlare di etica.
Il suo punto di partenza concettuale è che «l’IA non concerne la capacità di riprodurre l’intelligenza umana, ma in realtà la capacità di farne a meno»: paradossalmente, «è proprio quando smettiamo di cercare di produrre intelligenza umana che possiamo sostituirla con successo in un numero crescente di compiti» (p. 52). E contro chi crede nelle macchine intelligenti che finiranno per dominarci Floridi usa parole durissime, benché fra essi menzioni esplicitamente scienziati famosissimi, come Irving John Good, Stephen Hawking, Bill Gates, Elon Musk e Raymond Kurzweil: «Si tratta di irresponsabili in cerca di titoli. Dovrebbero vergognarsi e chiedere scusa» (p. 87).
A ciò è dedicato tutto il cap. 10, che così si conclude: «Il vero rischio non sta nella comparsa di qualche forma di ultraintelligenza, ma nel fatto che possiamo utilizzare male le nostre tecnologie digitali, a danno di una grande percentuale dell’umanità e dell’intero pianeta. […] Dovremmo preoccuparci della vera stupidità umana, non dell’intelligenza artificiale immaginaria, e concentrarci sulle sfide che l’IA solleva» (p. 276), che perlopiù non sono quelle di cui in genere si parla.
La sua tesi è dimostrata, ancor prima che da considerazioni filosofiche, dalla stessa storia dell’IA, che Floridi riassume brevemente nei primi tre capitoli, in cui, senza addentrarsi in dettagli tecnici, mostra come è cambiato l’approccio di fondo, passando da quello cognitivo, che voleva produrre nella macchina gli stessi processi che avvengono negli esseri umani e che si è dimostrato «una triste delusione» (p. 49), a quello ingegneristico, che si accontenta di ottenere dei risultati che, se fossero raggiunti da un essere umano, verrebbero considerati come segno di un comportamento intelligente.
Ciò però non significa che la macchina sia intelligente, come sostengono i personaggi di cui sopra, commettendo un non sequitur logico (anche se Floridi non lo dice esplicitamente, si tratta sempre del solito vecchio errore del comportamentismo, la prima teoria della mente proposta dalla filosofia analitica, che, pur essendo ormai completamente screditata, continua ostinatamente a riapparire, semplicemente perché è l’unica a cui ci si possa appellare per tentare di giustificare questa idea).
Per questo Floridi conclude che l’IA, lungi dall’essere una nuova forma di intelligenza, è piuttosto «una nuova forma dell’agire» (p. 91). E proprio per questo il modo corretto di approcciarla è l’etica, che è appunto la branca della filosofia che si occupa dell’agire. In particolare, attraverso un grande lavoro di comparazione tra le principali proposte di regolamentazione della IA avanzate negli ultimi anni a livello mondiale, Floridi mostra che gli oltre 160 principi in esse presenti si possono tutti ricondurre ad appena 5 principi generali, i primi 4 dei quali (beneficenza, non malevolenza, autonomia e giustizia) sono sostanzialmente gli stessi che si usano in campo bioetico.
Vi è però un aspetto che distingue l’etica della IA dalla bioetica e che le deriva dall’essere una forma di agire in cui non è sempre chiaro chi sia il soggetto. Di qui la necessità di un quinto principio: «l’esplicabilità, intesa come principio che include sia il senso epistemologico di intelligibilità (come risposta alla domanda: “Come funziona?”) sia quello etico di responsabilità (accountability) (come risposta alla domanda: “Chi è responsabile del modo in cui funziona?”)» (p. 92). E proprio in base a questi principi Floridi ribalta tutti i luoghi comuni più diffusi sulla IA.
Un altro grande merito del libro è quello di evidenziare l’impatto ecologico dell’IA, che consuma una quantità di energia spaventosa (nel 2020 era già più del 1% del totale dell’energia prodotta nel mondo: vedi p. 310) e, peggio ancora, in crescita esponenziale. Per esempio, sempre nel 2020 ChatGPT-3 ha richiesto «una quantità di energia di diversi ordini di grandezza superiore» a quella richiesta da ChatGPT-2 soltanto l’anno prima (p. 308). Nello stesso periodo, grazie ai progressi della IA alcuni data center sono riusciti a ridurre i loro consumi «in alcuni casi fino al 40%» (p. 309), cioè di meno di un ordine di grandezza.
Sorprendentemente, però, a questo proposito Floridi si limita a dire che «non è chiaro» se l’aumento dell’efficienza energetica dei data center potrà in futuro compensare l’aumento della richiesta di energia. Eppure, da quanto detto sembra invece chiarissimo che ciò è impossibile e che quindi, almeno per quanto ne sappiamo oggi, l’impatto della IA sul riscaldamento globale sembra destinato ad essere nel complesso negativo.
E la assai sospetta «mancanza di trasparenza rispetto ai dati» da parte «dei data center […] e dei fornitori di cloud» (p. 310), che egli stesso evidenzia, non fa che rafforzare tale conclusione. Pertanto, la sua posizione stavolta appare dettata più da motivazioni ideologiche che scientifiche. E questo ci porta a parlare dei difetti del libro, che sono fondamentalmente due.
Il primo è che Floridi è un accanito fautore del politically correct (come d’altronde è inevitabile, altrimenti non gli avrebbero mai dato ruoli di responsabilità all’interno della UE e ancor meno dell’ONU). Di conseguenza, nel considerare i rischi della IA egli dà sempre una priorità non sempre giustificata a quelli relativi alla discriminazione e all’ecologia e, più in generale, sostiene i programmi delle suddette istituzioni, a cominciare dal demenziale Green Deal europeo, senza minimamente considerare le sempre più numerose critiche di cui (giustamente) vengono fatti oggetto.
Il secondo difetto del libro è la valutazione globale della IA, che, nonostante le molte e precise considerazioni sui suoi rischi, nell’insieme risulta ancora troppo entusiastica. Infatti, per quanto in linea di principio Floridi affermi che vi sono situazioni in cui l’IA semplicemente non dovrebbe essere usata, quando si va al concreto preferisce sempre la regolamentazione alla proibizione, anche quando ciò comporterebbe la creazione di sistemi di controllo terribilmente complessi e terribilmente costosi, che inoltre in molti casi verrebbero facilmente “aggirati” dai giganti dell’informatica e che quindi, contrariamente a ciò che lui dice, sembrano di fatto impossibili da mettere in atto.
Ora, in parte tale atteggiamento dipende sicuramente dalla sua costante ricerca di quella «buona filosofia» che «quasi sempre sta nel noioso mezzo» (p. 264), il che di per sé è encomiabile. Tuttavia, il sospetto che vi sia anche una motivazione un po’ meno encomiabile non è infondato. Infatti, come Floridi stesso dice (giustamente) a proposito di chi sostiene che le macchine possono pensare, «le ultime persone a cui dovremmo chiedere se qualcosa è possibile sono quelle che hanno consistenti ragioni economiche per rassicurarci che lo sia» (p. 272).
Ora, per un esperto come lui è di certo più conveniente gestire un problema anziché eliminarlo, perché nel primo caso sarà richiesto il suo (ben retribuito) intervento a tempo indeterminato, mentre nel secondo no. Al riguardo non sarà forse inutile sapere che per una conferenza di mezz’ora il compenso richiesto dalla sua agente (perché Floridi ha un’agente, proprio come le star del calcio o del cinema) è di 30.000 euro IVA esclusa, che scendono a “solo” 15.000 per una conferenza online. Non dico che ciò invalidi automaticamente i suoi ragionamenti, ma di certo va tenuto presente nel valutarli.
Tale atteggiamento è discutibile soprattutto nell’ambito umano e sociale, dove le potenzialità positive della IA non sono affatto evidenti come in quello scientifico.
Non è certo un caso che nel capitolo 11, in cui dovrebbe illustrarle in dettaglio, Floridi, in genere preciso fino alla maniacalità, si limiti ad alcune enunciazioni molto generiche e spesso fastidiosamente retoriche: basti dire che, mentre il resto del libro pullula di riferimenti a studi scientifici, in tutto questo capitolo ce n’è soltanto uno, sulla possibilità di usare l’IA per migliorare l’efficienza degli «esempi di “moralità distribuita” nei sistemi da umano a umano come il prestito tra pari» (p. 284). Non esattamente un granché, soprattutto a fronte dei gravi rischi che una diffusione pervasiva della IA anche nei rapporti quotidiani comporterebbe.
Come egli stesso dice, infatti, per farla rendere al meglio noi siamo inesorabilmente spinti a trasformare l’ambiente intorno ad essa: «è il mondo che si sta adattando all’IA e non viceversa» (p. 54), processo che Floridi chiama «avvolgimento». E poiché tale ambiente è anche quello in cui noi viviamo, ciò, alla lunga, finirà per trasformare, almeno in parte, anche noi, come ancora una volta egli stesso più volte sottolinea.
Solo che Floridi è entusiasta di questa prospettiva, purché gestita nel modo giusto (cioè, secondo i suoi suggerimenti), mentre nemmeno lo sfiora il problema dei danni psicologici e addirittura biologici che può causare un’eccessiva interazione con le tecnologie digitali, su cui esiste ormai una documentazione schiacciante che non può più essere ignorata. E che tuttavia Floridi ignora.
È vero che ogni tecnologia ha sempre trasformato in parte anche noi, ma l’onnipervasività del digitale rischia di rendere questa trasformazione molto più profonda di qualsiasi altra. Decidere in che ambiti e fino a che punto siamo disposti ad accettarlo è quindi la prima cosa su cui dobbiamo metterci d’accordo. E per farlo con cognizione di causa dobbiamo smetterla di andare dietro alle roboanti idiozie proclamate ai quattro venti dai (purtroppo tanti) “oracoli” alla moda e leggere i (purtroppo pochi) autori che possono veramente aiutarci a capire.
Nonostante i suoi limiti, Luciano Floridi è senza dubbio uno di questi.
Luciano Floridi
Etica dell’intelligenza artificiale.
Sviluppi, opportunità, sfide
Cortina, Milano 2022
Pagine 384 euro 26,00
Recensione di Paolo Musso