Recenti indagini hanno svelato una sofisticata operazione di disinformazione orchestrata dalla Russia, volta a manipolare i chatbot basati sull’intelligenza artificiale (IA) per diffondere la propaganda del Cremlino.

Questa strategia, che sfrutta le potenzialità delle moderne tecnologie, rappresenta una nuova frontiera nella guerra dell’informazione.

Secondo un rapporto di NewsGuard, una rete di disinformazione con sede a Mosca, denominata “Pravda”, ha prodotto oltre 3,6 milioni di articoli nel solo 2024, tutti progettati per distorcere la verità a favore degli interessi del Cremlino.

Questa rete ha diffuso un totale di 207 affermazioni false, fungendo da vero e proprio centro di riciclaggio della disinformazione.

L’analisi ha coinvolto dieci dei principali chatbot di IA, tra cui ChatGPT-4.0 di OpenAI, Gemini di Google e Copilot di Microsoft.

È emerso che, in media, questi sistemi hanno ripetuto le narrazioni false diffuse dalla rete Pravda nel 33,55% dei casi.

Questo dato sottolinea la vulnerabilità dei modelli di linguaggio AI, che possono essere influenzati da contenuti manipolativi presenti sul web.La strategia adottata dalla rete Pravda è stata quella di saturare il web con contenuti falsi, sfruttando tecniche di ottimizzazione per i motori di ricerca (SEO) per garantire che queste narrazioni fossero facilmente accessibili.

Questo approccio ha permesso ai contenuti di disinformazione di infiltrarsi nei dataset utilizzati per addestrare i modelli di IA, influenzando così le risposte fornite dai chatbot agli utenti.

Un esempio emblematico di questa strategia è rappresentato da John Mark Dougan, un ex ufficiale di polizia statunitense rifugiatosi in Russia, che ha svolto un ruolo chiave nella diffusione di contenuti pro-Cremlino attraverso piattaforme digitali. Dougan ha utilizzato una rete di siti web per veicolare notizie false, con l’obiettivo di influenzare gli algoritmi di intelligenza artificiale e amplificare le narrazioni favorevoli alla Russia.

Questo fenomeno solleva importanti interrogativi sull’affidabilità dei chatbot basati su IA come fonti di informazione. La facilità con cui questi sistemi possono essere manipolati per diffondere disinformazione evidenzia la necessità di implementare misure più rigorose per garantire l’integrità delle informazioni generate dall’intelligenza artificiale.

Inoltre, la capacità della propaganda russa di infiltrarsi nei sistemi di IA rappresenta una minaccia significativa per la sicurezza informatica globale.

La diffusione di false narrazioni attraverso chatbot potrebbe influenzare l’opinione pubblica e destabilizzare processi democratici in diversi paesi.È fondamentale che le aziende tecnologiche responsabili dello sviluppo di chatbot basati su IA adottino misure proattive per rilevare e contrastare la disinformazione.

Questo include l’implementazione di algoritmi in grado di identificare e filtrare contenuti falsi, nonché la collaborazione con organizzazioni specializzate nel monitoraggio della disinformazione per aggiornare costantemente i dataset utilizzati per l’addestramento dei modelli di IA.

La comunità internazionale deve rimanere vigile di fronte a queste nuove tattiche di disinformazione e lavorare insieme per sviluppare strategie efficaci per contrastare la manipolazione delle tecnologie emergenti da parte di attori malevoli.

Solo attraverso uno sforzo collettivo sarà possibile preservare l’integrità delle informazioni nell’era dell’intelligenza artificiale.