Il 30 ottobre 2023, i leader del G7 hanno rilasciato una dichiarazione sull’Hiroshima AI Process, un’iniziativa nata per promuovere lo sviluppo e l’uso responsabile dell’intelligenza artificiale (AI), istituito in occasione del vertice del 19 maggio 2023. L’iniziativa fa parte di una più ampia gamma di discussioni internazionali sui guardrail per l’AI, tra cui l’Ocse, il Partenariato globale sull’AI (GPAI), nel contesto del Consiglio per il commercio e la tecnologia Ue-Usa e dei Partenariati digitali dell’Ue.
È la prima volta che i leader del G7 si riuniscono per rilasciare una dichiarazione congiunta sullo sviluppo e l’uso responsabile dell’AI ed essa rappresenta un ulteriore passo avanti verso un tentativo di istituzionalizzare una governance globale sull’AI, dopo altre iniziative quali la riunione del Consiglio di Sicurezza delle Nazioni Unite, l’audizione di Sam Altman, Ceo di OpenAI, presso il Senato statunitense, nonché la sottoscrizione di una moratoria firmata anche da Elon Musk. L’attuale dichiarazione si distingue anche per la sua attenzione all’AI generativa, a seguito della diffusione pervasiva di ChatGPG e di Google Bard, la quale ha il potenziale per rivoluzionare molti settori e aspetti della vita quotidiana e lavorativa.
La dichiarazione sull’Hiroshima AI Process delinea una lista non esaustiva di principi guida (International Guiding Principles) per tutti gli attori dell’ecosistema dell’AI, nonché un codice di condotta volontario (Code of Conduct for AI developers) per le organizzazioni che sviluppano sistemi avanzati di IA.
I principi guida delineati nella dichiarazione dei leader del G7 sono sostanzialmente i seguenti:
i) identificare, valutare e mitigare i rischi nell’intero ciclo di vita dell’AI;
ii) monitorare le vulnerabilità, gli incidenti, i rischi emergenti e l’uso improprio dopo l’implementazione e l’immissione sul mercato dei sistemi di AI;
iii) progettare e sviluppare sistemi in maniera trasparente tale da poter avere evidenza delle loro modalità di presa delle decisioni;
iv) investire e implementare solidi controlli di sicurezza, compresa la sicurezza fisica, la cyber security e le minacce interne (insider threats);
v) sviluppare meccanismi affidabili di autenticazione e provenienza dei contenuti, ove tecnicamente possibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’AI;
i) dare priorità allo sviluppo di sistemi avanzati di AI per affrontare le più grandi sfide globali quali la crisi climatica, la salute globale e l’istruzione;
vii) sviluppare e adottare standard tecnici internazionali;
viii) implementare protezioni adeguate per i dati personali e la proprietà intellettuale.
Il codice di condotta per le organizzazioni che sviluppano sistemi avanzati di IA comprende un elenco di impegni specifici modellati sui principi guida già menzionati e prende in considerazione, ad esempio, i rischi chimici, biologici, radiologici e nucleari; di come l’AI possa ridurre le barriere all’ingresso, anche per gli attori non statuali, per lo sviluppo, l’acquisizione o l’utilizzo di armi. Un altro aspetto elencato in questo codice riguarda le capacità informatiche offensive, come le modalità con cui i sistemi di AI possono consentire la scoperta di vulnerabilità e il successivo sfruttamento a fini malevoli, tenendo presente che tali capacità potrebbero costituire anche utili applicazioni difensive e come tali essere incluse in un sistema di difesa. Ma le minacce potrebbero essere molto più pervasive e attentare ai valori democratici e ai diritti umani, compresa la diffusione della disinformazione, la messa in pericolo della privacy, oppure l’esfiltrazione di dati sanitari, oppure l’attacco a infrastrutture critiche, ecc.
In definitiva, la dichiarazione dei leader del G7 rappresenta un passo significativo verso lo sviluppo di un quadro di governance globale sull’AI. Una prima riflessione che si può qui fare è che tale regolamentazione non può che essere inserita all’interno di una cornice globale lasciando poi alle singole nazioni o entità sovranazionali il compito di sviluppare approcci di governance e di regolamentazione più duraturi e dettagliati, ad esempio come nel caso dell’europeo AI Act.
Un aspetto da implementare, in questa strategia globale, è senz’altro una successiva introduzione di strumenti e meccanismi di monitoraggio al fine di aiutare le singole organizzazioni, che sviluppano sistemi avanzati di AI, a rendere conto, in maniera trasparente, della loro compliance rispetto al codice di condotta etica. Pur sfruttando le opportunità permesse dallo sviluppo tecnologico, difatti, tali entità dovrebbero rispettare lo stato di diritto, l’equità, la non discriminazione, i diritti umani, la democrazia e la centralità dell’essere umano nella progettazione, nello sviluppo e nell’impiego dei sistemi di AI.
La seconda riflessione attiene alla diffusione pervasiva dell’AI generativa e dei molteplici rischi che essa comporta soprattutto nel campo della disinformazione, svolta sui social media, anche mediante la creazione di deepfakes. Com’è evidente, la diffusione di tali campagne informazionali hanno forti correlazioni con la tenuta democratica delle attuali società e per questa ragione i decisori politici cercano di limitarne al massimo il loro impatto negativo.
In conclusione, la dichiarazione dei leader del G7 fornisce un insieme abbastanza chiaro e conciso di principi e linee guida per lo sviluppo e l’utilizzo responsabile dell’AI, soprattutto quella di tipo generativa, seppur per la sua adozione viene, ancora una volta, sottolineato il carattere dell’adesione volontaria. È assai significativo, tuttavia, che con questa dichiarazione viene inviato un forte segnale alla comunità globale di aziende e sviluppatori. In tal senso, i leader del G7 si impegnano a lavorare insieme per garantire che l’IA sia usata a fin di bene e per il progresso sostenibile della società intera.
— — — —
Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.