Negli Stati Uniti, non esiste una legge federale che vieti o richieda la divulgazione dell’uso dell’intelligenza artificiale (AI) nelle pubblicità politiche. Tuttavia, diverse leggi statali hanno iniziato a emergere per affrontare questa questione.
Nel gennaio 2024, poco prima delle primarie presidenziali del New Hampshire, gli elettori dello stato hanno ricevuto chiamate automatiche che diffondevano un messaggio preregistrato con una voce generata artificialmente che sembrava quella del Presidente Biden. Il messaggio invitava gli elettori a non partecipare alle primarie.Le indagini hanno rivelato che le chiamate provenivano da due aziende del Texas, Life Corporation e Lingo Telecom.
Al Jazeera ha creato immagini realistiche che mostrano il senatore repubblicano del Texas Ted Cruz sniffare cocaina, la vicepresidente Kamala Harris con un coltello in un supermercato e l’ex presidente Donald Trump stringere la mano a nazionalisti bianchi sul prato della Casa Bianca.
Musk ha pubblicato un’immagine generata dall’intelligenza artificiale di Harris che indossa un cappello con un’insegna comunista.
I registi The Dor Brothers hanno realizzato clip con immagini deepfake generate da Grok mostrando Harris, Trump e l’ex presidente Obama rapinare un supermercato, circolate sui social media. I Dor Brothers non hanno risposto a una richiesta di commento.
Trump ha diffuso immagini false, tra cui una che insinuava che Harris avesse parlato a un gruppo di comunisti durante la Convention Nazionale Democratica.
Le preoccupazioni riguardo all’impatto dei deepfake generati dall’IA sulle elezioni stanno aumentando, poiché circa due miliardi di elettori si preparano a partecipare alle elezioni in tutto il mondo nel 2024. I deepfake, che sono contenuti audio o visivi realistici creati utilizzando l’IA generativa, pongono rischi significativi per l’integrità elettorale, poiché possono influenzare le opinioni degli elettori e minare la fiducia nei processi democratici.
I deepfake stanno diventando sempre più sofisticati e facili da produrre, rendendoli difficili da rilevare. Questa evoluzione solleva allarmi tra esperti e regolatori, in particolare poiché possono essere utilizzati per diffondere disinformazione sulle piattaforme di social media, dove molti elettori ottengono le loro notizie. Ricerche indicano che quasi la metà degli adulti nel Regno Unito si affida ai social media per le notizie, amplificando il potenziale di diffusione di contenuti ingannevoli.
Incidenti recenti illustrano i pericoli dei deepfake. Ad esempio, nel Regno Unito, clip audio manipolate di politici sono diventate virali, ingannando il pubblico e causando disordini politici. In un caso, una registrazione audio falsa del sindaco di Londra Sadiq Khan ha quasi scatenato seri disordini in vista del Giorno dell’Armistizio. Allo stesso modo, durante le recenti elezioni in Pakistan, è circolata una clip audio deepfake presumibilmente dell’ex Primo Ministro Imran Khan, che chiamava falsamente a un boicottaggio delle elezioni.
In risposta alla crescente minaccia, vari organismi di regolamentazione stanno lavorando per implementare misure per combattere la diffusione dei deepfake. L’Unione Europea ha raggiunto un accordo provvisorio su un atto normativo sull’IA mirato ad aumentare la trasparenza riguardo ai contenuti generati dall’IA. Negli Stati Uniti, la Federal Communications Commission (FCC) sta considerando regole che richiederebbero la divulgazione di materiale generato dall’IA nella pubblicità politica. Anche piattaforme di social media come Meta, TikTok e X hanno promesso di combattere l’uso ingannevole dell’IA nelle elezioni sviluppando sistemi di rilevamento e etichettatura per tali contenuti.
L’impatto dell’AI sulle elezioni: realtà vs. percezione
Sebbene i rischi associati ai deepfake siano significativi, alcuni analisti sostengono che l’effettivo impatto dell’IA sui risultati elettorali possa essere sovrastimato. Studi hanno dimostrato che, nonostante il potenziale per la manipolazione guidata dall’IA, l’efficacia di tali tattiche nel influenzare gli elettori rimane limitata. Dati storici suggeriscono che le campagne di persuasione di massa, comprese quelle che utilizzano l’IA, spesso hanno effetti minimi sul comportamento di voto, poiché vari fattori influenzano le decisioni degli elettori oltre al semplice contenuto dei media.
Nonostante le iniziali preoccupazioni, l’evidenza suggerisce che l’intelligenza artificiale (AI) non ha avuto un impatto significativo sulle elezioni finora.
Anche se l’AI può facilitare la persuasione, altri fattori sono critici. Le persone aggiornano le loro credenze in base alle nuove informazioni, ma raramente questo si traduce in un cambiamento comportamentale. La maggior parte delle forme di persuasione politica ha effetti molto limitati.
In un mondo inondato di informazioni, i contenuti generati dall’AI, come qualsiasi altro contenuto, faticano a emergere dal rumore di fondo e raggiungere il pubblico target. L’eccessivo uso di contenuti generati dall’AI potrebbe addirittura far disattivare le persone.G
I votanti sembrano riconoscere e non gradire i messaggi eccessivamente personalizzati. Studi recenti suggeriscono che gli effetti persuasivi dell’AI sono, almeno per ora, ampiamente sopravvalutati.I
L’informazione, indipendentemente dalla sua veridicità o origine, spesso svolge un ruolo secondario. Il consumo e l’accettazione delle informazioni dipendono da fattori preesistenti, come se si accordano con le tendenze politiche o i valori di una persona.
Nonostante le legittime preoccupazioni, incolpare la tecnologia è spesso un comodo capro espiatorio. Concentrarsi eccessivamente sull’impatto presunto dell’AI rischia di alimentare la sfiducia e seminare confusione tra il pubblico, erodendo ulteriormente già bassi livelli di fiducia nelle notizie e nelle istituzioni affidabili in molti paesi
La democrazia è minacciata, ma la nostra ossessione per il presunto impatto dell’AI è improbabile che migliori le cose – e potrebbe addirittura peggiorarle quando ci distrae dai problemi più duraturi che mettono in pericolo le democrazie di tutto il mondo