Con l’avvento dell’Amministrazione Trump, anche il quadro generale della regolamentazione dell’IA, negli Stati Uniti, subirà trasformazioni significative nella filosofia di fondo, rispetto a quella precedente di Biden, ma in linea con quella del suo primo mandato presidenziale. Le basi furono gettate, difatti, l’11 febbraio 2019, quando l’allora Presidente istituì l’American AI Initiative, mediante l’Executive Order (EO) 13859, e promosse un approccio orientato al mercato. Questo framework “Artificial Intelligence for the American People”, codificato in legge nell’ambito del “National AI Initiative Act” del 2020, enfatizzava il mantenimento della leadership statunitense a livello globale sostenendo un intervento governativo minimo.
L’Amministrazione Biden aveva fatto segnare, invece, un netto cambiamento nella governance dell’IA, culminato nell’EO del 2023 “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”. L’atto era stato emanato in quanto i legislatori non erano riusciti ad approvare una legge che fissasse dei paletti regolatori allo sviluppo impetuoso dell’IA generativa che aveva fatto seguito alla volgarizzazione di ChatGPT, da parte di Open AI. Questo quadro normativo aveva introdotto diversi meccanismi chiave relativi ai test di sicurezza, alla supervisione federale in tema di standard e protocolli, ad aspetti legati alla sicurezza nazionale nonché al tema della cybersecurity.
Con qualche maggior dettaglio, si può qui evidenziare che con questo EO gli sviluppatori di sistemi IA “potenti” erano tenuti a condividere i risultati dei test di sicurezza con il Governo, soprattutto i modelli che potevano rappresentare rischi per la sicurezza nazionale, economica o la salute pubblica. Il National Institute of Standards and Technology (NIST) veniva incaricato di sviluppare linee guida chiave per l’IA. La supervisione federale si concretizzava anche nella designazione di Chief AI Officers in ogni agenzia federale al fine di coordinare le attività legate all’IA e monitorare la gestione dei rischi così come l’istituzione di AI Governance Boards e meccanismi di coordinamento tra le agenzie esistenti. Ai fini della sicurezza nazionale, le iniziative adottate prevedevano l’identificazione e monitoraggio delle minacce inclusi i rischi biologici, informatici e infrastrutturali, il rafforzamento delle capacità di controspionaggio per proteggere la proprietà intellettuale relativa all’IA nonché le valutazioni annuali obbligatorie per le infrastrutture critiche unitamente a periodici rapporti al Dipartimento della Sicurezza Nazionale. In questo contesto, anche la cooperazione internazionale svolgeva un ruolo considerevole tramite la promozione di standard globali, la collaborazione con gli alleati su iniziative di sicurezza condivise, nonché il coordinamento delle politiche di controllo delle esportazioni per tecnologie IA critiche.
L’inversione di policy di Trump, di questi ultimi giorni (23 gennaio), è già rinvenibile dal titolo dell’EO “Removing Barriers to American Leadership in IA”, caratterizzato da una focalizzazione su progresso umano, competitività economica e rimozione delle barriere normative confermando, e non poteva essere altrimenti – vero filo conduttore di sempre della politica statunitense – che la vera priorità del Paese è nel mantenimento del dominio globale nell’IA. Il primo Paese a sviluppare con successo l’Artificial General Intelligence (AGI), difatti, potrebbe ottenere vantaggi significativi in ogni attività scientifica ed economica. La strategia di implementazione prevede un nuovo piano di azione, la revisione e potenziale modifica delle attività esistenti delle agenzie, ma soprattutto l’eliminazione del “pregiudizio ideologico o delle agende sociali ingegnerizzate” nei confronti dei sistemi di IA “potenti”. Non v’è dubbio alcuno, dunque, che questo mutato ambiente normativo sarà sempre più incentrato su innovazione e competizione piuttosto che sulla regolamentazione.
Sempre in questi ultimi giorni (22 gennaio) il Presidente Trump ha annunciato un ambizioso progetto denominato “Stargate”. Quest’iniziativa, guidata da una partnership tra imprese intende investire 500 miliardi di dollari, nei prossimi quattro anni, costruendo una nuova infrastruttura IA. Quest’ultima ha l’obiettivo esplicito di garantire la leadership nell’IA e così proteggere la sicurezza nazionale del Paese e dei suoi alleati e, al contempo, promuovere la reindustrializzazione degli Stati Uniti mediante la creazione di centinaia di migliaia di posti di lavoro. I primi finanziatori di Stargate saranno SoftBank, OpenAI, Oracle e MGX. SoftBank e OpenAI saranno i partner principali di Stargate, con SoftBank che avrà la responsabilità finanziaria e OpenAI la responsabilità operativa. Masayoshi Son ne sarà il presidente. Arm, Microsoft, NVIDIA, Oracle e OpenAI saranno, infine, i principali partner tecnologici, almeno in questa fase iniziale. Il progetto prevede la costruzione di datacenters in diverse località degli Stati Uniti, con il primo sito già in costruzione ad Abilene (Texas), ma con l’obiettivo di realizzarne altri 10, con piani di espansione fino a 20.
Nonostante il suo ruolo di consigliere dell’Amministrazione Trump, il tycoon Elon Musk ha pubblicamente contestato la fattibilità del progetto. Attraverso la sua piattaforma X, ha affermato che SoftBank dispone di molto meno di 10 miliardi di dollari, mettendo in dubbio la solidità finanziaria dell’intero progetto. Sam Altman, CEO di OpenAI, ha subito risposto alle critiche di Musk affermando che le sue dichiarazioni sono sostanzialmente erronee. La tensione tra i due leader tecnologici è di antica data e riflette una più ampia competizione nel settore dell’IA, complicata dalla loro precedente collaborazione in OpenAI.
In conclusione, la revoca dell’EO di Biden da parte di Trump rappresenta una svolta significativa nella politica statunitense dell’IA, privilegiando l’innovazione e la libertà di mercato rispetto alla regolamentazione centralizzata. Questo cambiamento crea sia opportunità che sfide per gli stakeholder dell’intero ecosistema dell’IA. A livello nazionale perché la carenza di una supervisione federale favorirà l’iniziativa legislativa dei singoli Stati i quali stanno già iniziando a implementarla come il Colorado. A livello internazionale perché potrebbe portare a un ridisegno complessivo del panorama globale della governance dell’IA, ancora in una fase iniziale di implementazione, con effetti sin qui non prevedibili.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.