AI: ecco come opporsi su Meta all’uso dei dati su Facebook e Instagram, ma la tutela è parziale e i contenuti già raccolti restano nei dataset
Con l’espansione dei modelli di intelligenza artificiale come Meta AI, ChatGPT e Google Gemini, il diritto alla privacy si trasforma in uno strumento attivo di autodeterminazione: il Garante della Privacy italiano ricorda che – ai sensi dell’art. 21 del GDPR – gli utenti possono opporsi all’utilizzo dei propri dati per l’addestramento degli algoritmi.
Per Meta, è possibile presentare un’opposizione specifica entro il 31 maggio 2025 attraverso moduli dedicati su Facebook e Instagram, distinguendo tra utenti registrati e non; l’efficacia – però – è limitata: i dati già processati prima della richiesta infatti rimarranno nei dataset, mentre quelli futuri saranno esclusi e di conseguenza, anche chi ha deciso di compilare il modulo potrebbe finire nel bacino di dati per l’addestramento dell’intelligenza artificiale. Inoltre, l’opposizione infatti è limitata ai contenuti pubblicati dell’utente, non alle informazioni che altri account potrebbero condividere su di noi – quindi – se un amico che non ha operato il diritto all’opposizione pubblica una nostra foto o un nostro video, non siamo tutelati.
OpenAI invece, offre una procedura simile tramite la sezione “Your Privacy Choices” del sito: è richiesta la specifica dei contenuti da rimuovere e la prova della titolarità affinché la richiesta sia valida mentre Google Gemini consente di bloccare l’uso dei dati pubblici attraverso richieste generiche a patto che venga indicata la finalità di addestramento AI, in linea con le disposizioni del GDPR. Questi meccanismi – anche se accessibili – presentano comunque diverse criticità: l’irreversibilità dei dati già assimilati dai modelli, unita alla complessità tecnica delle procedure, rischia infatti di scoraggiare gli utenti meno esperti.
AI e sfide legali: tra irreversibilità dei dati e autodeterminazione digitale
A questo punto la discussione non si pone esclusivamente sul piano tecnico ma anche su quello giuridico in quanto l’utilizzo del legittimo interesse come base giuridica da parte di Meta e altre big tech per giustificare l’addestramento degli algoritmi induce a farci delle domande sulla sua compatibilità con il GDPR, soprattutto in relazione al principio di limitazione della finalità: trattare dati raccolti per scopi sociali o pubblicitari per finalità di machine learning rappresenta un uso deviato, non sempre trasparente.
Il Garante inoltre, ci tiene a ribadire come l’inerzia dell’utente – spesso interpretata come consenso implicito – costituisca una minaccia concreta all’autodeterminazione informativa, specialmente per i minori perché i loro dati indiretti – pubblicati da genitori, amici o piattaforme – necessitano di tutele più stringenti ma la sfida regolatoria ha ormai superato i confini nazionali e in assenza di normative comuni a livello UE, le autorità rischiano di rincorrere le pratiche delle aziende anziché governarle.
L’irreversibilità tecnica dei dati una volta assimilati nei modelli AI, rende la privacy una corsa contro il tempo: opporsi oggi significa – di fatto – proteggersi a lungo termine per il futuro in un ecosistema digitale dove i dati rappresentano potere, controllo e profitto.
