L’avvento dell’intelligenza artificiale generativa ha rivoluzionato il modo in cui accediamo alle informazioni. Tuttavia, insieme alle sue straordinarie opportunità, sta emergendo una nuova e pericolosa minaccia: la distorsione. A differenza della disinformazione, che spesso è intenzionale, la distorsione si verifica quando un assistente AI raccoglie informazioni per rispondere a una domanda e fornisce una risposta inesatta, fuorviante o addirittura pericolosa. Questa sfida non può essere ignorata, poiché rischia di minare ulteriormente la fiducia del pubblico nelle informazioni verificate.

La BBC News ha recentemente acceso i riflettori su questo fenomeno, portando avanti un’indagine su alcuni dei più avanzati strumenti di AI disponibili sul mercato, tra cui ChatGPT, Perplexity, Microsoft Copilot e Google Gemini. Questi assistenti sono stati testati ponendo loro cento domande basate su articoli del sito web della BBC, con l’intento di verificare l’accuratezza delle risposte fornite utilizzando fonti affidabili. I risultati hanno rivelato problemi significativi: oltre la metà delle risposte conteneva errori, un quinto introduceva inesattezze nei fatti dichiarati come provenienti da articoli della BBC e più di uno su dieci includeva citazioni alterate o inesistenti.

Questi errori non sono semplici imprecisioni; riflettono problematiche strutturali nell’elaborazione delle informazioni da parte dell’AI. Gli assistenti non distinguono tra fatti e opinioni, non fanno differenze tra materiale corrente e di archivio, e spesso includono interpretazioni soggettive nelle risposte. Questo crea una miscela confusa di informazioni che rischiano di distorcere la percezione della realtà. Un esempio particolarmente preoccupante è emerso durante il conflitto in Medio Oriente, quando Perplexity ha descritto le azioni di Iran e Israele utilizzando aggettivi emotivi come “moderazione” e “aggressività”, che non comparivano nei report imparziali della BBC. Questo dimostra come l’AI possa inavvertitamente manipolare le narrazioni globali, alimentando tensioni e malintesi.

Il rischio non si limita all’inaccuratezza delle notizie. La distorsione potrebbe danneggiare irreparabilmente la già fragile fiducia del pubblico nelle informazioni verificate, rendendo sempre più difficile distinguere i fatti dalle interpretazioni. Questo rischio diventa ancora più tangibile in un mondo caratterizzato da crescenti tensioni geopolitiche e disordini sociali. Un titolo distorto generato dall’AI potrebbe potenzialmente causare danni reali, alimentando paure o incitando a reazioni sproporzionate.

Nonostante i disclaimer spesso presenti negli strumenti di AI, che avvertono della possibile inesattezza delle risposte, l’impatto della distorsione è amplificato dalla fiducia implicita che gli utenti ripongono in queste tecnologie avanzate. La situazione è tanto grave che Apple ha recentemente sospeso una funzionalità di AI per i riepiloghi delle notizie, dopo che la BBC ha evidenziato come l’intelligenza artificiale avesse “allucinato” notizie, distorcendo i titoli e creando falsi resoconti. Un esempio emblematico ha riguardato gli incendi a Los Angeles, dove un titolo distorto indicava erroneamente che funzionari della città fossero stati arrestati per saccheggi, invece di riportare l’arresto di saccheggiatori durante l’emergenza. Questo episodio dimostra che anche le aziende più avanzate non sono immuni dal problema della distorsione.

Per affrontare questa minaccia crescente, è necessario un approccio collaborativo e urgente. La BBC ha lanciato un appello per aprire un dialogo con i fornitori di tecnologia AI e altri grandi marchi dell’informazione. È cruciale lavorare insieme per trovare soluzioni che garantiscano un uso responsabile dell’intelligenza artificiale, preservando l’accuratezza delle notizie. Questo dialogo dovrebbe includere anche il coinvolgimento dei governi, con l’obiettivo di elaborare regolamentazioni efficaci che proteggano la fiducia del pubblico nelle informazioni verificate.

In un mondo in cui la verità è sempre più messa in discussione, il compito di garantire l’affidabilità dell’informazione non può essere delegato solo alla tecnologia. Richiede un impegno condiviso da parte delle istituzioni giornalistiche, delle aziende tecnologiche e dei regolatori governativi. La BBC si è dichiarata pronta a guidare questa conversazione, sottolineando l’urgenza di progettare tecnologie che aiutino le persone a trovare informazioni affidabili, piuttosto che aumentare il caos e la confusione.

Il fenomeno della distorsione è una sfida complessa, che richiede risposte rapide e coordinate. L’invito della BBC è un passo importante verso una maggiore consapevolezza del problema, ma la soluzione richiederà uno sforzo collettivo. Il futuro dell’informazione dipende dalla nostra capacità di adattarci a queste nuove sfide, garantendo al tempo stesso l’integrità e l’affidabilità delle notizie in un mondo sempre più digitale.