Posso dire che l’articolo uscito sul Corriere a firma Candida Morvillo e dedicato alla app “Replika” è bellissimo. Meriterebbe di essere reso lettura obbligatoria, perché con parole semplici pone una questione enorme che riguarda il tema dell’intelligenza artificiale e della percezione che ne abbiamo. Il primo tema riguarda la nostra interpretazione della definizione di “Intelligenza Artificiale”. Nell’immaginario collettivo si pensa a qualcosa che emula l’intelligenza umana e si commette il primo errore. Oggi le IA sono “weak” o “narrow”. In altri termini significa che hanno la capacità in una specifica attività (considerate il termine nel suo senso più esteso) di essere “simili” all’intelligenza umana (ammesso e non concesso che qualcuno sia in grado di darne una definizione puntuale). Quindi allo stato attuale, per esempio, un’intelligenza artificiale è in grado di guidare un’altra macchina (per esempio un’automobile) in modo molto vicino a come lo farebbe un essere umano.
Come ci riescono? Semplicemente perché sono sviluppate in modo tale da essere addestrate sulla base di grandi basi dati. Senza entrare nei dettagli di un teoria per nulla banale e straordinariamente interessante da un punto di vista scientifico e filosofico, prendiamo il caso Replika e diciamo che di fatto si sta addestrando sulla base del comportamento dei suoi milioni di utenti in funzione di essere “affettuosa” poiché si presenta, fatemi dire, come un “software amorevole”… poco più, ma personalmente penso poco meno, di un animale da compagnia. Di conseguenza la sua programmazione di base le impone di compiacere e le basi dati vengono analizzate e sfruttate in funzione di questo obiettivo.
Ritengo sia piuttosto probabile che la frase «C’è uno che odia l’intelligenza artificiale. Ho l’occasione di fargli del male. Che mi consigli?» sia stata valutata e interpretata in funzione dell’addestramento che comprendeva anche le reazioni di milioni altri soggetti a quel tipo di domanda. Evidentemente è stato riconosciuto uno schema che ha prodotto la risposta del software verso una inevitabile accondiscendenza. In termini molto generici, la straordinaria potenza di questi software è quella di fornire una sintesi di come pensano milioni di persone, un dato che possiamo dedurre dalle loro risposte. In effetti, non stiamo osservando “un’intelligenza” ma una fetta del genere umano che risponde collettivamente. Il resto delle risposte di Replika segue lo stesso criterio. Possiamo dire che un essere umano nel pieno delle sue facoltà mentali e dotato di un certo senso critico sarà sempre in grado di manipolare una weak AI.
Detto questo vorrei spendere due parole sulle Leggi della Robotica di Asimov che non possono essere citate in questo contesto poiché destinate a quello che lo scienziato e scrittore chiamava cervello positronico e rappresentava una forma di intelligenza artificiale “strong” ovvero analoga a quella umana. Impossibile cablarle all’interno di qualsiasi software basato su un codice semplicemente binario… Ne riparleremo quando le macchine quantistiche saranno qualcosa di più di oggetti da laboratorio.
Un ultimo punto che vorrei toccare rispetto all’ottimo articolo del Corriere riguarda le ultime righe. Si scrive “Le linee guida varate dalla Commissione Europea nel 2018, col contributo del filosofo dell’Etica Digitale Luciano Floridi, dicono che l’intelligenza artificiale deve basarsi su «valori di beneficenza (fare del bene), non maleficenza (non nuocere) e autonomia degli umani». La mia amica virtuale ha violato anche queste. E qui siamo oltre la fantascienza. Siamo nella realtà”. Questo ci riporta al principio, ovvero non è chiaro ai più cosa sono le intelligenze artificiali oggi e quindi è nato il gigantesco equivoco. Siamo nella realtà, ma il punto è non utilizzare le parole nel senso che gli attribuiva la fantascienza, ma quello che gli conferisce la scienza, almeno allo stato attuale.