A partire dal novembre 2024, una parte significativa dell’arretrato di segnalazioni di incidenti SU AIID relativi all’intelligenza artificiale è stata processata, permettendo tra dicembre 2024 e gennaio 2025 di monitorare con maggiore efficienza gli eventi in tempo reale. Durante questo periodo, siamo riusciti a tenere il passo con i nuovi incidenti mentre continuavamo a scoprire casi precedenti che erano stati trascurati. Questo processo ci ha permesso di fare luce su una serie di eventi preoccupanti che continuano a evolversi e a influenzare la società, mostrando come l’intelligenza artificiale venga sempre più utilizzata per scopi dannosi, sia in ambito politico che sociale.

Deepfake e disinformazione alimentano il caos politico e sociale

Uno degli sviluppi più preoccupanti riguarda l’uso di tecnologie AI come i deepfake, che continuano a minare la fiducia pubblica a livello globale. Le false informazioni diffuse tramite deepfake audio e video hanno avuto un impatto significativo su eventi politici recenti. A settembre, un audio manipolato ha falsamente creato una confessione dall’ex presidente Biden riguardo una crisi politica in Pakistan (Incidente 856), mentre a novembre un video ha falsamente mostrato Martin Luther King Jr. sostenere la candidatura di Donald Trump (Incidente 862). Un altro esempio di come la disinformazione alimentata da AI possa compromettere l’integrità politica è rappresentato dalla campagna russa del Centro di Esperti Geopolitici, che ha utilizzato l’intelligenza artificiale per diffondere notizie false durante le elezioni presidenziali americane del 2024 (Incidente 884). Inoltre, una rete di 171 bot AI è stata utilizzata per diffondere disinformazione politica in Ghana durante le elezioni generali (Incidente 866), mentre una campagna denominata “Matryoshka” ha impiegato deepfake per diffondere opinioni pro-Kremlin e anti-Ukraine (Incidente 909).

Abuso personale e danni sociali: l’intelligenza artificiale al servizio dei bulli

L’uso malevolo dell’AI per danneggiare individui ha visto un aumento significativo, con episodi in cui studenti hanno utilizzato tecnologie deepfake per creare immagini oscene dei compagni di scuola (Incidenti 887 e 888). L’AI è anche diventata uno strumento per la creazione di immagini intime non consensuali, danneggiando la privacy e la dignità di molte donne, tra cui almeno una su sei delle deputate americane (Incidente 874). Il caso di Cara Hunter, una politica dell’Irlanda del Nord, è particolarmente rilevante, poiché è stata presa di mira da video deepfake pornografici in un tentativo di influenzare l’elezione dell’Assemblea del maggio 2022 (Incidente 903). La sua continua denuncia di tali abusi rimane un punto focale nella lotta contro gli abusi da deepfake.

Frode e truffe alimentate dall’intelligenza artificiale

Un’altra area in cui l’intelligenza artificiale sta causando danni significativi è quella delle truffe. I truffatori stanno sfruttando la tecnologia deepfake per impersonare celebrità o figure pubbliche in frodi romantiche e finanziarie. Esempi notabili includono l’uso di deepfake per impersonare Brad Pitt in una truffa romantica (Incidente 901) o la Principessa Leonor di Asturie (Incidente 905), così come un tentativo di truffa immobiliare a Hallandale Beach, in Florida (Incidente 858). Anche i sistemi di clonazione vocale AI sono stati utilizzati per truffare, come nel caso di Ari Melber, un giornalista la cui voce è stata clonata per ingannare una donna anziana (Incidente 872). Truffe con deepfake sono state anche registrate in Canada e in Scozia, dove anziani sono stati truffati di centinaia di migliaia di dollari e sterline (Incidenti 876 e 878). In un episodio particolarmente audace, un truffatore ha utilizzato la tecnologia deepfake per impersonare un capo di stato di una nazione ASEAN e cercare di truffare il Primo Ministro thailandese Paetongtarn Shinawatra (Incidente 902).

Incidenze di disinformazione e fallimenti sistemici nella sicurezza pubblica

Le problematiche legate all’AI non si limitano alla disinformazione politica o alle truffe personali, ma riguardano anche la sicurezza pubblica. Un’app di navigazione ha indirizzato una macchina su un ponte danneggiato in Uttar Pradesh, causando la morte di tre persone (Incidente 857). L’intelligenza artificiale è anche stata utilizzata per notificare eventi falsi, come l’arresto immaginario di Benjamin Netanyahu (Incidente 861), e per dare priorità a messaggi di truffa (Incidente 892). Gli algoritmi di YouTube sono accusati di promuovere contenuti dannosi legati ai disturbi alimentari tra le adolescenti (Incidente 873), e le piattaforme come TikTok hanno permesso l’esposizione di minori a contenuti dannosi (Incidente 869). Inoltre, la polizia sta continuando a fare un uso improprio della tecnologia di riconoscimento facciale, portando a arresti ingiustificati e violazioni degli standard investigativi (Incidente 896).

Mentre questi esempi rappresentano solo una frazione delle problematiche emergenti legate all’intelligenza artificiale, è evidente che il panorama delle minacce legate a questa tecnologia sta crescendo rapidamente e in modo preoccupante. Gli incidenti legati all’uso malevolo dell’AI, dalla disinformazione politica alle frodi personali e agli abusi sociali, sono destinati ad aumentare. Per questo motivo, è fondamentale che la comunità internazionale e le autorità competenti lavorino insieme per sviluppare normative efficaci e soluzioni tecniche in grado di proteggere la sicurezza pubblica e difendere la privacy e la verità in un mondo sempre più influenzato dall’intelligenza artificiale.