INTELLIGENZA ARTIFICIALE/ Il limite delle regole adottate dall’Ocse

- Alessandro Curioni

Ben 42 paesi hanno adottato le linee guida dell’Ocse sull’Intelligenza artificiale, che presentano però un limite da non sottovalutare

Computer Pc Sicurezza Lapresse1280
LaPresse

I principi sono normalmente all’insegna del buonsenso, e anche quelli proposti in materia di intelligenza artificiale dall’Organizzazione per la cooperazione e lo sviluppo economico (Ocse) e sottoscritti da 42 paesi non fanno eccezione. Le intelligenze artificiali devono portare benefici al genere umano; devono essere progettate in modo da rispettare i diritti umani, i valori democratici, le leggi; devono essere sicure e chi le realizza deve considerarsi responsabile del rispetto di tutti i principi di cui sopra. Questa l’estrema sintesi, ma proviamo a fare un passo indietro.

Nelle premesse del documento che sancisce i principi si legge la definizione di sistema IA che recita: “È un sistema basato su macchine che può, per un dato gruppo di obiettivi definiti dall’uomo fare previsioni, offrire raccomandazioni, o prendere decisioni tali da influenzare ambienti reali o virtuali. I sistemi IA sono progettati per operare con diversi livelli di autonomia”. Questo chiarisce che non stiamo parlando di una macchina che possa riprodurre tutte le capacità di una mente umana, tecnicamente definita intelligenza artificiale “forte”, ma di quella “debole” ovvero un oggetto che si limiterà a uno specifico “gruppo” di funzionalità tipicamente umane.

Effettivamente la possibilità che possa esistere un sistema in grado di comportarsi esattamente come un essere umano appartiene ancora alla fantascienza, ma questa definizione forse presenta un altro limite. Le intelligenze artificiali “prevedono, raccomandano e decidono”, ma apparentemente non “agiscono”, eppure nel futuro che ci attende esse finiranno soprattutto per fare quello. Il mondo dell’Internet of Things promette auto a guida autonoma, frigoriferi che fanno la spesa, macchinari industriali e linee di montaggio prive di personale umano, dispositivi medici in grado di effettuare operazioni chirurgiche in autonomia. Tutte queste Intelligenze artificiali quindi non si limiteranno a decidere.

Qualcuno potrebbe obiettare che in definitiva il concetto è sottinteso nella definizione perché l’azione non è altro che il manifestarsi della decisione. Tuttavia non possiamo dimenticare che stiamo parlando di sistemi specializzati. Questo significa che due entità distinte potrebbero avere caratteristiche tali da qualificarle come intelligenze artificiali deboli in cui una decide e l’altra agisce (il fatto che un soldato semplice debba eseguire senza discutere gli ordini di un superiore non lo rende “meno umano”). Tuttavia la seconda non sarebbe vincolata ai limiti stabiliti nel documento dall’Ocse.

Quando si fissano dei principi si pongono le fondamenta stesse di un intero sistema, in questo caso giuridico, e forse sarebbe meglio dargli il respiro più ampio possibile. In fondo sarebbe bastato aggiungere un paio di parole, per esempio “prendere decisioni o compiere azioni tali da influenzare o modificare ambienti reali o virtuali”.

© RIPRODUZIONE RISERVATA