OPENAI/ E le possibili cause del “drama” culminato col licenziamento di Altman

- Achille Paliotta

Negli ultimi giorni è sorto una specie di "drama" relativo al licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI

Altman, OpenAI Sam Altman, ad di OpenAI (LaPresse, 2023)

L’estromissione di Sam Altman, CEO di OpenAI, e le modalità con cui essa è avvenuta, nonché i colpi di scena ancora possibili, non potevano non provocare quello che è stato definito, dai media statunitensi, come un vero e proprio “drama”, paragonabile solo a quanto successo in precedenza con Steve Jobs di Apple, sostanzialmente costretto alle dimissioni nel settembre 1985, a opera dell’allora amministratore delegato John Sculley.

A seguito di tale evento si è scatenato un dibattito non solo sulle ragioni che hanno portato alla defenestrazione di Altman, ma, più in generale, sul futuro dell’intelligenza artificiale (AI). Gli eventi si sono svolti rapidamente e senza alcun sentore per gli stessi interessati, almeno così è stato raccontato da Altman sui social media (X, ex Twitter). Il 18 novembre, lo stesso è stato convocato, tramite un link per una videochiamata, dal presidente del consiglio di amministrazione Ilya Sutskever, per partecipare a una riunione del consiglio, convocata in tutta fretta. Lì è stato informato del suo licenziamento, con effetto immediato. Ne sono seguiti i messaggi sui social media e un comunicato di OpenAI in cui veniva affermato che Altman “non è stato sempre sincero [“candid”] nelle sue comunicazioni con il consiglio di amministrazione, ostacolando la capacità di quest’ultimo di esercitare le proprie responsabilità”. Il consiglio nominava l’ex capo di Twitch, Emmett Shear, CEO ad interim, domenica sera. Il presidente Greg Brockman, in segno di solidarietà con Altman, lasciava anche lui la società. Quasi 500 dipendenti di OpenAI, infine, firmavano una lettera per comunicare che avrebbero lasciato la società se il consiglio non si fosse dimesso.

In breve tempo, i dipendenti, i giornalisti e la comunità globale dell’AI iniziavano a pubblicare articoli e messaggi sulla vicenda; alcuni esprimevano preoccupazione per il potenziale impatto sulla missione di OpenAI e sulla sua capacità di rimanere all’avanguardia nello sviluppo dell’AI. Altri mettevano in discussione il processo decisionale del consiglio di amministrazione e la mancanza di trasparenza che ha caratterizzato la defenestrazione di Altman. Dopo una serie di notizie contrastanti su un eventuale ritorno di Altman, il 20 novembre, in un post su X, Satya Nadella, CEO di Microsoft, dichiarava: “siamo estremamente entusiasti di condividere la notizia che Sam Altman e Greg Brockman, insieme ai colleghi, entreranno a far parte di Microsoft per guidare un nuovo team di ricerca sull’AI avanzata”.

Nel frattempo, erano iniziate a filtrare notizie di una crescente spaccatura tra Altman e Sutskever, che è anche uno dei co-fondatori nonché Chief Scientist di OpenAI. A tutt’oggi, le ragioni di questo contrasto rimangono poco chiare tanto che è possibile avanzare solo alcune ipotesi, alcune delle quali possono essere anche complementari e non alternative le une delle altre.

La prima è di carattere economico e può aver trovato ulteriore linfa nella recente e prima conferenza degli sviluppatori, l’OpenAI DevDay, tenutasi il 6 novembre scorso. Altman è un fautore di un approccio sempre più commerciale della società, tanto da prefigurarne uno sviluppo che poteva arrivare fino alla competizione con le altre Big Tech GAFAM. Da qui la sua idea di una sorta di AppStore per l’AI nonché dei suoi investimenti in Humane, una start-up che ha appena lanciato un device da indossare, AI Pin, una sorta di “post smartphone” con all’interno ChatGPT-4, tramite cui interagire unicamente tramite comandi vocali, touch e gestuali.

La seconda ha a che fare con la visione di lungo periodo dello sviluppo e della governance globale dell’AI. OpenAI è stata fondata, difatti, come organizzazione no-profit nel 2015 con la missione principale di garantire che l’AI generale vada a beneficio di tutta l’umanità. Nel 2019, OpenAI si è ristrutturata per garantire che la società potesse raccogliere capitali preservando, al contempo, la sua specifica missione e la sua peculiare governance. Tale missione di organizzazione no-profit, piuttosto che di quella commerciale, è maggiormente radicata negli altri consiglieri indipendenti del consiglio di amministrazione: Adam D’Angelo, CEO di Quora, Tasha McCauley, imprenditrice tecnologica nonché affiliata alla RAND Corporation, e Helen Toner del Georgetown Center for Security and Emerging Technology. Grazie alla loro presenza, la maggioranza del consiglio è indipendente e gli amministratori indipendenti non detengono neppure partecipazioni in OpenAI. Forse, non a caso, al temine dell’estromissione di Altman, il consiglio rilasciava la seguente comunicazione, pubblicata sul blog della società. “OpenAI è stata deliberatamente strutturata per portare avanti la nostra missione: garantire che l’AI generale porti benefici a tutta l’umanità. Il consiglio di amministrazione rimane pienamente impegnato nel perseguire questa missione”.

Sutskever, infine, è un sostenitore della tesi del “Super allineamento” tra intelligenza umana e intelligenza artificiale, vale a dire far sì che si possa arrivare a un sistema o una macchina che rimanga allineata con i valori e gli interessi umani, anche quando questa diverrà super intelligente e si porrà, probabilmente, al di fuori del controllo umano.

Sempre in quest’ottica, vale qui segnalare anche altre iniziative di cui si fanno parte attiva i membri indipendenti del consiglio. Ad esempio, McCauley è una delle firmatarie, insieme ad Altman, Sutskever ed Elon Musk, degli “Asilomar AI Principles”, promossi dall’istituto Future of Life, sviluppati alla conferenza Beneficial AI 2017, 23 principi guida i quali rappresentano una delle prime e più influenti serie di principi di governance dell’AI. La stessa McCauley fa attualmente parte del comitato consultivo del Center for the Governance of AI, fondato in Gran Bretagna, insieme alla collega Helen Toner. Esse sembrano essere, inoltre, attive sostenitrici del movimento “Effective Altruism”, attraverso il Centre for Effective Altruism. Le priorità delle cause più diffuse, nell’ambito dell’altruismo efficace, includono la salute e lo sviluppo globale, la disuguaglianza sociale, il benessere degli animali e i rischi per la sopravvivenza dell’umanità nel futuro a lungo termine.

Non è da escludere, in ultimo, neppure la crescente strategicità dell’AI anche ai fini della sicurezza nazionale e della competizione geopolitica tra gli Stati Uniti e la Repubblica Popolare Cinese.

In definitiva, l’allontanamento forzato di Altman, al di là di alcuni aspetti personalistici tra i diversi attori in gioco, sembra aver avuto, al suo fondo, una visione profondamente diversa su quali sarebbero stati gli ulteriori step di sviluppo dei programmi societari di OpenAI. Questo scontro di visioni, unito forse alla mancanza di trasparenza di Altman nei suoi ultimi processi decisionali aziendali, può essere all’origine della sua tumultuosa e imprevista estromissione.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI





© RIPRODUZIONE RISERVATA

Ultime notizie di Hi-Tech

Ultime notizie