L'esigenza di sviluppare forme di intelligenza artificiale fondate sulla moralità nell'analisi del quotidiano francese L'Opinion: non è solo questione di distinzione tra bene e male...

L’intelligenza artificiale è il nostro presente e sarà il nostro futuro. Gran parte dei settori lavorativi si sta avvicinando a questa tecnologia per migliorare le prestazioni. E anche nella vita di tutti i giorni avvalersi di questo strumento può rispondere a ragioni di comodità e facilitazione. Il quotidiano francese L’Opinion ha però voluto sollevare un interrogativo sulla moralità dell’IA. Quanto potrà essere in grado di distinguere il bene dal male? Sebbene infatti venga spesso equiparata all’uomo, probabilmente da questo punto di vista non sarà capace di sostituirsi ad esso.



Se consideriamo, ad esempio, un’intelligenza artificiale come ChatGpt, se glielo chiediamo, riuscirà sicuramente a formulare un discorso di senso compiuto sul bene e sul male. Ma per valutare se è in grado di capirne fino a fondo l’essenza, dovrà essere sottoposta ad un test empirico. Partendo dalla capacità di formulare un discorso parlato la stragrande maggioranza delle IA non parla, si limita a svolgere solo compiti. In questo caso, l’unico metodo che abbiamo per valutare la loro competenza morale è quello di osservare il loro comportamento. Ma anche in questo caso saremmo di fronte allo stesso problema: se un’IA fa regolarmente del male, possiamo concludere che non comprende le nozioni di bene e male; se invece fa sempre del bene, non possiamo comunque concludere nulla.



INTELLIGENZA ARTIFICIALE, COME PUÓ CAPIRE LA MORALITÀ DI UN COMPORTAMENTO

Se l’intelligenza artificiale sta prendendo sempre più piede nelle nostre vite è importante che agisca con obiettivi che siano in linea con i valori della moralità. Ma come può farlo da sola, senza l’aiuto dell’uomo? Dovremmo essere di fronte ad un IA che avrebbe raggiunto la superintelligenza e la superautonomia. In altre parole, in uno scenario futuro in cui l’IA è in grado di fissare i propri obiettivi, decidere i mezzi per raggiungerli e implementare questi mezzi, il tutto senza alcuna supervisione umana, ci sarebbero più probabilità che una super-IA fosse in grado di capire giusto e sbagliato e stabilire linee morali invalicabili (perlomeno in linea teorica).



Quanto descritto pone però il problema del cosiddetto ‘allineamento’: se un’IA diventa autonoma e potente, sarà comunque in grado di uniformarsi agli obiettivi e ai valori morali dell’umanità? Il timore è che l’intelligenza artificiale possa arrivare a distruggere l’umanità. Il rischio è remoto ma esistente qualora fosse sempre più implementata al punto di raggiungere una sua totale autonomia. L’obiettivo primario, per scongiurare qualsiasi rischio, deve essere quindi quello di sviluppare IA morali, con un ridotto margine di errore, sia in termini di moralità implicita che esplicita. Tra gli esempi citati da L’Opinion, possiamo concentrarci sull’affidamento totale dei social network all’intelligenza artificiale, capace di contemperare la libertà di espressione degli utenti al limite all’incitamento all’odio. Valutazioni di questo tipo potrebbero trovarsi anche in altri contesti. Ecco perchè è fondamentale puntare alla moralità dell’IA.