ELON MUSK E IL ROBOT PERICOLOSO PER L’UOMO/ Studiosi spengono IA: produce fake news

- Dario D'Angelo

I creatori di OpenAI hanno deciso di procedere allo spegnimento di un’intelligenza artificiale pericolosa per l’umanità: ecco cosa faceva.

elon musk 2019 twitter
Elon Musk, foto da Twitter

I creatori di OpenAI, gruppo sostenuto da Elon Musk, si sono visti costretti a fermare in tutta fretta lo sviluppo della loro intelligenza artificiale dopo essersi resi conto della sua capacità di ingannare il cervello umano con la produzione di fake news difficili da distinguere dalla realtà. Alec Radford, uno dei ricercatori di OpenAI, come riportato dal Corriere della Sera ha spiegato:”Se tu inizi con una teoria del complotto su come l’uomo non sia andato sulla Luna il sistema continuerà con il complotto”. Una prosecuzione talmente “raffinata” e ben fatta da non rendere immediato il “debunking” da parte del lettore, soprattutto di quello meno in possesso di nozioni sull’argomento, che per questo motivo rischierebbe di essere tratto in inganno. Da qui la decisione di procedere allo “spegnimento” di questa IA potenzialmente pericolosa.

ELON MUSK E IL ROBOT PERICOLOSO PER L’UMANITA’

La decisione di spegnere una propria invenzione ritenendola pericolosa non è nuova nella storia dell’umanità: già in passato è successo infatti che l’uomo temesse le implicazioni di una propria creazione. L’esempio più famoso è probabilmente quello legato a Thomas Edison, che nel 1888 per dimostrare la pericolosità della corrente alternata tanto difesa dal suo concorrente Nikola Tesla, progettò la sedia elettrica. I ricercatori di OpenAI finanziati da Elon Musk hanno spiegato che la tecnologia che si è proceduto a spegnere “era capace di creare notizie finanziarie (false) su società (vere), messaggi razzisti, trolling di qualità e false recensioni per siti come Amazon”. Resta dunque aperta la questione su come assicurare la neutralità degli algoritmi. Se gli uomini hanno infatti l’arma della cultura per districarsi tra teorie del complotto, fake news e simili, le macchine non dispongono ancora di una strumentazione che le aiuti a discernere il bene dal male, l’etico dall’immorale. Più che una dotazione tecnologica da applicare è probabilmente il metodo per trasferire queste “competenze” la più grande sfida della scienza nel campo dell’intelligenza artificiale.



© RIPRODUZIONE RISERVATA