L’uso di immagini generate dall’intelligenza artificiale è ormai un potente strumento di manipolazione coordinata su piattaforme social come X (ex Twitter), con uno studio tedesco che ha identificato quasi 8,000 account con volti sintetici, principalmente utilizzati per amplificare messaggi politici e schemi legati al mondo cripto. La ricerca, condotta da team di esperti della Ruhr University Bochum, del GESIS Leibniz Institute e del CISPA Helmholtz Center, ha rilevato come gran parte di questi account sia stata creata nel 2023, spesso in eventi di creazione massiva, e come segua schemi tipici dei network di disinformazione.
“Negli ultimi anni, i progressi nella generazione di contenuti attraverso l’intelligenza artificiale hanno reso quasi impossibile distinguere tra immagini autentiche e contenuti creati da macchine,” sottolinea lo studio. Le implicazioni di questa trasformazione sono notevoli, in quanto gli utenti comuni hanno difficoltà a riconoscere immagini o profili sintetici, il che facilita la diffusione di informazioni errate o polarizzanti.
L’influenza politica e i numeri di Elon Musk su X
Questo fenomeno di disinformazione diventa ancor più significativo in considerazione dei recenti dati diffusi dal Center for Countering Digital Hate (CCDH), che evidenziano come i post politici di Elon Musk su X, spesso a favore di Donald Trump, abbiano raggiunto 17.1 miliardi di visualizzazioni—più del doppio di tutte le pubblicità elettorali negli Stati Uniti combinate durante lo stesso periodo. Secondo il CCDH, almeno 87 dei post di Musk nel 2024 contengono informazioni classificate come false o fuorvianti, accumulando 2 miliardi di visualizzazioni e senza alcuna Community Note (la funzione di fact-checking di X).
Questa influenza su larga scala di messaggi politici amplificati da account con immagini sintetiche rischia di alimentare ulteriormente polarizzazioni e fraintendimenti, non solo negli Stati Uniti ma anche in altre parti del mondo. La capacità di Musk di diffondere messaggi con un così vasto impatto, senza filtri o correttivi, pone domande critiche sulla responsabilità delle piattaforme social nei confronti dei contenuti che ospitano.
Schemi di comportamento dei profili AI: pochi follower e poca interazione
L’analisi dello studio tedesco ha evidenziato come gli account con foto sintetiche abbiano pattern comportamentali distintivi. In media, questi account hanno molti meno follower rispetto a quelli con immagini autentiche: 393,35 follower di media contro i 5,086,38 degli account autentici. Inoltre, questi profili fake tendono a interagire poco con il proprio pubblico, limitandosi a postare contenuti senza impegnarsi in risposte o discussioni. Ciò suggerisce una strategia unidirezionale per diffondere messaggi senza entrare in veri scambi, uno schema tipico dei network di disinformazione che mirano ad amplificare determinati argomenti senza rischiare confutazioni dirette.
In termini di comportamento coordinato, i ricercatori hanno trovato gruppi di account con follower identici: 1,996 account avevano esattamente 106 follower ciascuno. Questa omogeneità numerica è spesso indice di creazioni automatiche e schemi predefiniti di crescita dei follower, utilizzati per simulare un’interazione autentica e accrescere la credibilità.
La breve vita degli account fake
Interessante è anche il ciclo di vita relativamente breve di questi account. Più della metà di questi profili viene sospesa nel giro di un anno, probabilmente a causa di segnalazioni o algoritmi di controllo della piattaforma. Tuttavia, questa alta rotazione non sembra scoraggiare gli attori dietro questi profili, che continuano a crearne di nuovi per mantenere costante la presenza di tali messaggi.
I temi più diffusi: guerre, elezioni e Covid
L’analisi dei contenuti rivela una precisa orchestrazione nel tipo di messaggi diffusi. Gli account sintetici in lingua inglese sembrano concentrarsi su argomenti controversi come la guerra in Ucraina, le elezioni negli Stati Uniti e dibattiti su Covid-19 e vaccinazioni. Oltre alla politica, molti di questi profili promuovono schemi di criptovaluta e contenuti a sfondo sessuale, sfruttando temi capaci di attrarre un’ampia gamma di utenti e, spesso, di polarizzare le opinioni.
Futuri sviluppi: nuove tecniche di identificazione
Guardando al futuro, i ricercatori tedeschi intendono ampliare le proprie capacità di rilevazione, includendo tecnologie basate su modelli di diffusione (Diffusion Models) anziché sui tradizionali Generative Adversarial Networks (GANs). Questa evoluzione è necessaria in quanto le tecniche di generazione AI continuano a progredire, rendendo le immagini sintetiche sempre più realistiche. Oltre alla qualità dell’immagine, si punta a perfezionare anche i metodi di analisi comportamentale, per individuare con maggiore accuratezza quello che gli studiosi chiamano “comportamento inautentico coordinato” su piattaforme social.
Lo studio solleva interrogativi urgenti sulle implicazioni etiche e sociali dell’uso di tecnologie AI per manipolare l’opinione pubblica.