Facebook chiede accesso al rullino per creare suggerimenti AI: la funzione è attiva solo su consenso, ma i dubbi sulla privacy aumentano
Una nuova funzione dell’app di Facebook sta facendo discutere, e non poco, anche perché tocca uno dei temi più delicati dell’era digitale, quello tra innovazione e protezione della privacy; in questi giorni diversi utenti, in particolare negli Stati Uniti e in Canada, si sono visti comparire un pop-up mentre tentavano di creare una nuova storia, con il quale il social chiede il permesso di attivare quella che viene definita “elaborazione cloud”.
In pratica, Facebook sta testando uno strumento basato sull’intelligenza artificiale che, previo consenso, seleziona automaticamente immagini dal rullino fotografico del dispositivo per generare collage, restyling visivi o idee tematiche da proporre all’utente come suggerimenti creativi.
Nel messaggio, Meta spiega che questi contenuti verrebbero scelti sulla base di parametri come data, luogo o ricorrenze e che solo chi li riceve potrà vederli, a meno che non decida di condividerli, quindi non verranno usati per fini pubblicitari, né per il targeting degli annunci – questo almeno quanto promesso dalla piattaforma – ma dietro questa apparente leggerezza molti utenti si stanno chiedendo cosa succeda davvero alle immagini che vengono caricate nel cloud, chi può accedervi, e soprattutto, per quanto tempo vengono conservate.
Il meccanismo si attiva solo con il consenso esplicito dell’utente, ma si basa su una clausola che autorizza Facebook ad analizzare le immagini caricate – comprese, per esempio, le caratteristiche facciali – per generare contenuti creativi automatici, tutto ciò è regolato dai nuovi Termini AI di Meta, entrati in vigore nel giugno 2024, che però non specificano con esattezza quali dati personali vengano raccolti o per quanto tempo restino nei sistemi.
E anche se la funzione, come spiegato da un portavoce della società, “può essere disattivata in qualsiasi momento”, resta il fatto che molti utenti segnalano di essersela trovata attiva per default, o comunque con messaggi poco chiari.
Facebook, il cloud processing sulle foto non è un dettaglio: cosa succede davvero quando si da il consenso
Facebook ha precisato che le immagini raccolte dal rullino fotografico non vengono utilizzate per allenare l’intelligenza artificiale – almeno non in questo test – ma sono usate esclusivamente per creare suggerimenti personalizzati: la realtà, però, è che accettando questo tipo di elaborazione si autorizza implicitamente anche la lettura di contenuti non ancora condivisi sulla piattaforma, quindi immagini che fino a quel momento erano rimaste nel telefono.
Si tratta quindi di permettere all’AI di Meta di analizzare la presenza di persone, oggetti, ambientazioni, magari addirittura luoghi visitati, elementi che possono essere utilizzati per inferenze anche molto precise su chi siamo, cosa facciamo, con chi ci muoviamo: dagli screenshot comparsi su Reddit e in alcune community online, risulta che alcuni utenti si sono visti proporre versioni AI di vecchie foto – in un caso, una trasformazione automatica in stile anime – senza aver mai caricato quelle immagini manualmente.
In altri casi, i suggerimenti apparivano mentre si stava solo sfogliando l’app, lasciando intendere che il sistema era già in grado di accedere a contenuti privati prima ancora della condivisione; l’opzione per gestire questa funzione si trova in una sezione non immediatamente visibile delle impostazioni dell’app, sotto “suggerimenti di condivisione del rullino fotografico”, dettaglio che ha aumentato la sensazione, in alcuni utenti, che la trasparenza dell’operazione sia tutt’altro che cristallina.
Ma non è una novità assoluta: Meta ha già utilizzato dati pubblici, come post o commenti, per addestrare i propri modelli AI, ma questa espansione verso i contenuti privati e mai pubblicati rappresenta un salto maggiore e potenzialmente rischioso; per ora, l’esperimento è limitato al mercato nordamericano, ma è difficile pensare che non venga esteso altrove, soprattutto se l’obiettivo è raffinare modelli in grado di generare contenuti automatici su larga scala, nonostante i dubbi e l’assenza di regole chiare sulla questione.
