Secondo i ricercatori del MIT e dell’Università della California, Irvine, l’uso di intelligenza artificiale conversazionale basata su grandi modelli linguistici (LLM) può amplificare la creazione di falsi ricordi negli esseri umani. Questa scoperta solleva preoccupazioni significative riguardo all’applicazione di tali tecnologie in contesti delicati, come gli interrogatori dei testimoni.
Falsi ricordi e intelligenza artificiale
I falsi ricordi si formano quando il cervello, durante il processo di recupero della memoria, integra informazioni esterne o distorte per colmare eventuali lacune. Questo fenomeno è stato osservato in vari contesti e può essere accentuato da interazioni con sistemi di intelligenza artificiale che generano contenuti realistici ma non veritieri, come nel caso dei deepfake.
Implicazioni per l’uso dell’IA
L’abilità degli LLM di generare risposte coerenti e realistiche può influenzare le percezioni e i ricordi delle persone, portando a una distorsione della realtà. Questo è particolarmente preoccupante in situazioni in cui i ricordi sono cruciali, come nelle testimonianze legali. La possibilità che un testimone possa essere influenzato da un’interazione con un sistema di IA, portando a ricordi errati o falsi, è un rischio significativo.
La ricerca evidenzia la necessità di una riflessione critica sull’uso dell’intelligenza artificiale in contesti sensibili. È fondamentale considerare le potenziali conseguenze etiche e pratiche dell’interazione umana con sistemi di IA, specialmente in ambiti dove la verità e l’accuratezza delle informazioni sono essenziali.