IA & POLITICA/ Come difendersi dalle interferenze dei deepfake sul voto di 2 miliardi di persone

- Raffaele Barberio

L'intelligenza artificiale altera i vecchi sistemi di propaganda, ma invita tutti a maggior consapevolezza e sollecita gli Stati ad adeguamenti normativi

computer programmazione cuffie pixabay1280 640x300 Pixabay

Sono 64 i Paesi che vanno alle urne nell’anno in corso. Le elezioni più rilevanti si terranno nel Regno Unito, negli Stati Uniti, nell’Unione europea, in India, in Sudafrica, in Messico e in molti altri Paesi, al punto da coinvolgere un quarto della popolazione adulta mondiale (2024: The Super Election Year). Ma al di là del numero di elettori coinvolti, un dato già di per sé impressionante, c’è nell’aria qualcosa di più. Si avverte ovunque la sensazione che la posta in gioco non sia mai stata così alta e a confermarlo sono le ferme divisioni e contrapposizioni politiche all’interno di molte nazioni, assieme alle lotte interne alle singole formazioni, tutti elementi che fanno affermare l’amara sensazione che stiamo diventando sempre più polarizzati, più tribali e più intolleranti nei confronti “dell’altra parte”, di qualunque natura essa sia. Sembra che tutti vogliano reclamare il diritto di avere un nemico contro cui battersi e sacrificarsi.

Indipendentemente da come soffieranno i venti politici in questo controverso anno, una cosa sta diventando chiara: i risultati di questa tornata elettorale quasi globale avranno un impatto profondo sulla traiettoria non solo del futuro di ogni singola nazione coinvolta elettoralmente, ma anche del resto del mondo.

Su tutto emerge una certezza: mai come in questo momento la politica si è sentita così precaria. E lo stesso si può dire per la tecnologia. Una tecnologia continuamente cangiante, liquida, con alcuni strumenti, come quelli basati sull’intelligenza artificiale (IA) che hanno raggiunto livelli così sofisticati, pervasivi e accessibili al grande pubblico, al punto da poter prevalere, alterando le percezioni dell’opinione pubblica e offuscando le responsabilità dei singoli.

L’IA generativa, nel suo senso più ampio, si fonda su modelli di apprendimento profondo che possono generare testo, video, audio, immagini e altri contenuti sofisticati, in base ai dati su cui il software è stato addestrato. Il risultato è che la creazione di contenuti falsi o fuorvianti è diventata incredibilmente facile, anche per coloro che hanno competenze tecnologiche del tutto basilari.

Dobbiamo definitivamente convincerci che siamo entrati in una nuova era tecnologica che cambierà le nostre vite per sempre, ma non è per nulla detto per il peggio, anzi, auspicabilmente per il meglio. Ciò non è però sufficiente per rassicurarci sulle capacità dell’IA che, se mal gestita e abusata in campagne elettorali, può fare danni incredibili.

I contenuti falsi e ingannevoli possono essere prodotti ormai gratuitamente o a basso costo, senza sforzo, e possono essere distribuiti su larga scala online, al punto da fare danni incalcolabili in contesti elettorali ed è questo uno dei nodi centrali da risolvere. L’ecosistema online, che è la fonte della maggior parte delle nostre notizie e informazioni, viene regolarmente inondato di contenuti fabbricati in casa degli stessi utenti, contenuti che stanno diventando difficili da distinguere dalla realtà.

I social media, con quasi 5 miliardi di utenti al mondo, sono quindi il principale vettore di disinformazione online e l’opinione pubblica è ampiamente vulnerabile alla manipolazione.

Gli esempi non mancano, come nel caso, un anno fa, del falso arresto di Donald Trump o del deepfake audio del leader laburista Sir Keir Starmer diffuso guarda caso il primo giorno della Congresso del Partito Laburista britannico. Per non parlare del deepfake audio del leader del partito della Slovacchia progressista, Michal Šimečka, nel quale egli discuteva su come truccare le elezioni. L’audio fu diffuso in modo massivo appena due giorni prima delle elezioni generali che si sono tenute lo scorso autunno.

I casi citati indicano due cose. La prima è che i deepfake non sono una novità delle ultime settimane, ma che oggi hanno raggiunto un tale grado di perfezione, da essere facilmente percepiti come veri documenti multimediali. La seconda è l’insidia di cui i deepfake sono portatori, dal momento che sono sempre più frequenti risultati elettorali in cui la vittoria tra i principali contendenti viene assegnata allo schieramento vincitore magari per pochi decimali. In questo caso, quella differenza risicata è stata determinata dall’effetto sull’elettorato di eventuali deepfake. E se non vi fosse stata alcuna distorsione della realtà, il risultato sarebbe stato diverso?

Ecco perché è più che lecito chiedersi se siamo destinati ad assistere a una crescita senza limiti della disinformazione alimentata dall’IA di elezione in elezione. Perché in questo caso sarebbe altrettanto lecito chiedersi come arginare in modo efficace il fenomeno.

Certo, si stanno facendo alcuni progressi e c’è da sperare che gli impegni assunti possano determinare una inversione di tendenza.

Google e Meta hanno annunciato che imporranno alle campagne politiche di rivelare l’eventuale alterazione degli annunci realizzati grazie all’uso di IA. TikTok richiede che i contenuti generati dall’IA siano etichettati come tali. Negli Stati Uniti, il presidente Joe Biden ha presentato proposte per la gestione dei rischi dell’IA, incluso un mandato per l’autenticazione e la filigrana dei contenuti generati dall’IA. E il Digital Services Act dell’Ue richiede perentoriamente alle piattaforme online di mitigare il rischio di disinformazione e rimuovere l’incitamento all’odio.

Nel frattempo, nel Regno Unito l’Online Safety Act 2023, lanciato e sostenuto dall’autorità regolatrice Ofcom, impone nuovi obblighi sulle piattaforme online per rimuovere i contenuti illegali, quando queste ne vengono a conoscenza. Ma il punto è che mentre la legge include reati facilmente riscontrabili, come il reato di “interferenza straniera”, nel caso di attività dannose condotte online da potenze straniere (ad esempio, campagne di disinformazione sponsorizzate da Stati esteri), non riesce, in quasi tutti gli altri casi, ad affrontare adeguatamente la diffusione di pubblicazioni di disinformazione diffuse in modo massivo e capillare da singoli individui o piccoli gruppi.

E allora come difendersi? Ciò che emerge è che l’autoregolamentazione delle piattaforme di social media dovrà sempre fare i conti con nuove sfide, mentre la legislazione (per quanto completa possa alla fine essere disegnata a livello nazionale) richiederà comunque un coordinamento globale completo, una armonizzazione internazionale e un’applicazione efficace, il che richiederà una buona dose di finanziamenti e una adeguata dose di volontà politica.

Abbiamo quindi buoni motivi di preoccupazione. Ma non serve farsi prendere dal panico. Dobbiamo solo essere preparati. Dobbiamo aumentare la consapevolezza pubblica. Dobbiamo capire quanto sia potente l’IA e quanto possa essere convincente nei confronti dell’opinione pubblica. Dobbiamo sempre aver presente che questi contenuti alterati possono essere prodotti con facilità, velocità e a costi del tutto irrisori. Dobbiamo ugualmente tenere presente che questi contenuti sono già parte integrante del nostro ecosistema informativo e che certamente diventeranno ancor più diffusi quanto più ci avviciniamo al giorno delle elezioni, in ciascuno dei Paesi che le celebrerà quest’anno. E dobbiamo accettare l’idea che nessuno è immune dall’essere coinvolto in campagne del genere.

Se siamo consapevoli della minaccia e di cosa questa sia capace di generare, possiamo attrezzarci meglio per gestirla o almeno ammorbidirne l’impatto. Occorre quindi controllare gli errori o le incongruenze delle pubblicazioni online, vedere se ci sono linguaggi o modelli di formattazione insoliti, considerare il tono emotivo e, come sempre, effettuare il fact-check generale. Va inoltre verificata sempre la fonte, cercare la conferma e non dimenticare mai gli eventuali propri pregiudizi nella classificazione delle risposte riscontrate a ciascuno di questi quesiti.

Ormai la lampada è stata sfregata e il genio dell’IA generativa è uscito fuori. Questa nuova ondata di disinformazione, uno tsunami che può alterare la realtà, ha la possibilità di cambiare i risultati delle elezioni del 2024 in più di una nazione e minare la democrazia (pur considerando quanto questo sia ormai un regime minoritario nel mondo) come l’abbiamo sino a oggi conosciuta.

Quindi, se vogliamo concederci una chance di resistenza, dobbiamo ricordare che l’attendibilità di un esponente politico in lizza è ancor più facile da verificare se quel candidato è effettivamente conosciuto dal proprio elettorato e se quest’ultimo ha quindi familiarità con le sue idee e con i suoi programmi. Il che impone un ruolo diverso tra il singolo politico e il proprio bacino elettorale, un ruolo più radicato, concreto e non remoto. Parallelamente, gli elettori devono convincersi che, ancora una volta, il risultato elettorale di una chiamata alle urne dipende solo ed esclusivamente da chi infila il proprio voto nell’urna.

Alla fine, tutto dipende sempre da noi.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI





© RIPRODUZIONE RISERVATA

Ultime notizie di Politica

Ultime notizie