Meta ha recentemente annunciato che prevede di allenare la propria intelligenza artificiale sui dati degli utenti dell’Unione Europea, incluse informazioni da piattaforme come Facebook e Instagram. Questo annuncio non arriva certo come una sorpresa, considerando il crescente interesse dell’azienda per l’AI, ma ci sono implicazioni più profonde che vanno oltre la semplice giustificazione di migliorare i modelli di IA. Meta ha messo in luce che si tratta di un passo necessario per perfezionare l’interazione dell’IA con il pubblico europeo, ma ciò solleva inevitabili interrogativi sul rispetto della privacy, sulle possibili ripercussioni legali e sull’accesso che l’azienda avrà ai dati degli utenti.
I dettagli del piano di Meta: Cosa sarà usato e come
Secondo Meta, la formazione dell’IA sui dati degli utenti dell’UE comprenderà principalmente post pubblici, commenti, e la cronologia delle chat con l’AI, escludendo per ora i messaggi privati tra utenti. Nonostante il tentativo di rassicurare gli utenti escludendo i messaggi privati, questa distinzione potrebbe sembrare una magra consolazione. Il confine tra pubblico e privato è spesso ambiguo nel contesto delle piattaforme social, dove le informazioni che gli utenti considerano private vengono comunque trattate come pubbliche, anche se limitate a determinati gruppi o contesti.
Meta ha dichiarato che gli utenti maggiorenni saranno i soggetti di questo processo, e ha aggiunto che intende notificare gli utenti tramite notifiche in-app ed email, dando la possibilità di optare per l’opt-out tramite un modulo di opposizione facilmente accessibile. Qui entra in gioco un aspetto cruciale: mentre l’azienda afferma di rispettare le normative europee, il vero punto è capire se questa informativa e la possibilità di rinunciare siano sufficienti a garantire una gestione adeguata della privacy degli utenti. Meta, infatti, ha mostrato una tendenza storica a raccogliere e utilizzare dati in modi che spesso sfidano la trasparenza e pongono interrogativi sul consenso reale degli utenti.
Meta giustifica la decisione di allenare l’IA sui dati degli utenti dell’UE come una necessità per rendere i modelli AI più aderenti alla realtà dei vari paesi europei, inclusi dialetti, colloquialismi e modi distintivi di usare umorismo e sarcasmo. In pratica, l’azienda sostiene che l’IA deve essere in grado di comprendere le peculiarità culturali e linguistiche dell’Europa per migliorare l’esperienza dell’utente. Ma dietro queste argomentazioni si nasconde una realtà più ambigua: la raccolta dei dati personali non è solo una questione di miglioramento dell’IA, ma un’opportunità di accumulare quantità massicce di informazioni su come le persone pensano, si esprimono e interagiscono online.
L’affermazione di Meta che questa mossa riguarderà in particolare IA multi-modale, che combina testo, voce, video e immagini, potrebbe sembrare lodevole a chi è convinto delle potenzialità della tecnologia. Tuttavia, la questione solleva una domanda fondamentale: fino a che punto questa ricerca di perfezionamento giustifica l’intrusione nelle vite digitali degli utenti? Meta, a quanto pare, ritiene che il compromesso tra il miglioramento delle proprie tecnologie e la privacy sia accettabile, ma non è così chiaro se gli utenti, specialmente quelli europei, siano davvero d’accordo.
Meta aveva già sospeso la formazione dell’IA sui dati degli utenti dell’UE dopo una richiesta esplicita da parte dei regolatori irlandesi, ma ora sembra tornare sui suoi passi, probabilmente alla luce di nuove concessioni alle normative dell’UE. In Gran Bretagna, ad esempio, Meta aveva annunciato simili piani l’anno scorso, dove gli utenti sono protetti da normative più rigorose riguardanti l’uso dei dati personali rispetto agli Stati Uniti.
La situazione si complica ulteriormente se si considera che Meta ha già ammesso di aver utilizzato praticamente tutte le informazioni pubbliche condivise dai suoi utenti da quando Facebook è nato. Le immagini, i testi e i post pubblici degli utenti sono stati già utilizzati per formare modelli di IA che, in teoria, dovrebbero rendere l’intelligenza artificiale più “intelligente” e capace di interagire in modo più naturale. La decisione di estendere questa pratica agli utenti dell’UE non fa altro che sollevare ulteriori preoccupazioni sulla quantità e qualità dei dati utilizzati per formare queste tecnologie.
Non è solo una questione di “quanto” Meta raccoglie, ma anche di “come” lo fa. Le normative europee sulla privacy, a partire dal GDPR, sono tra le più severe al mondo e Meta, pur dichiarando di rispettarle, continua a trovarsi al centro di polemiche riguardo all’uso dei dati e alle modalità con cui ottiene il consenso degli utenti.
Il futuro delle tecnologie AI in Europa, e in particolare il ruolo di Meta in questo scenario, appare incerto. La questione centrale non riguarda solo le decisioni tecniche dell’azienda, ma anche la capacità dei regolatori di adattarsi ai rapidi sviluppi dell’intelligenza artificiale. Sebbene la tecnologia offra vantaggi evidenti, come la personalizzazione delle esperienze utente e il miglioramento dei servizi, non si può ignorare il rischio di un’ulteriore erosione della privacy e della sicurezza.
Il dibattito su come trattare l’intelligenza artificiale e i dati personali è destinato a crescere nei prossimi anni. Meta ha fatto la sua mossa, ma ora spetta ai regolatori europei decidere se la privacy degli utenti è tutelata abbastanza o se è il momento di intervenire con nuove leggi e regolamenti.