Il tema della superpersuasione (moral suasion ), come discusso nell’episodio di “Codice” su RaiPlay, (di Massimo Cerofolini) si colloca al centro di un dibattito cruciale riguardo all’impatto delle tecnologie di intelligenza artificiale (IA) sulla democrazia e sulla società.

L’uso di algoritmi generativi per influenzare le opinioni e le decisioni degli individui rappresenta una nuova frontiera della manipolazione, ben oltre le tecniche di profilazione utilizzate in passato, come quelle di Cambridge Analytica.

L’evoluzione delle tecnologie di intelligenza artificiale (IA) ha portato a un fenomeno noto come “superpersuasione”, che si riferisce alla capacità degli algoritmi di influenzare profondamente le nostre idee e comportamenti.

Questi sistemi, come GPT-4o, possono analizzare le espressioni facciali e tradurle in emozioni, creando l’illusione di empatia e comprensione, anche quando interagiamo con entità virtuali. Questo potere di manipolazione può avere conseguenze significative, poiché gli utenti possono essere facilmente persuasi a credere e agire in modi che non avrebbero fatto in assenza di tali influenze.

Gli algoritmi generativi sono sistemi di IA progettati per creare contenuti originali, siano essi testi, immagini o video, a partire da input specifici. Questi algoritmi sono basati su reti neurali profonde, che apprendono da enormi quantità di dati per generare output coerenti e contestualmente rilevanti.

A differenza dei metodi tradizionali di profilazione, che si limitano a segmentare gli utenti in gruppi, gli algoritmi generativi possono personalizzare i messaggi per ogni singolo individuo, aumentando così l’efficacia della persuasione.

La creazione di chatbot e avatar dei defunti è un’applicazione dell’intelligenza artificiale che coinvolge profondamente le emozioni umane. Questi sistemi possono ricreare conversazioni con i cari scomparsi, offrendo conforto a chi è in lutto.

In Corea del Sud, questa pratica è utilizzata come parte della terapia per la depressione post mortem, consentendo alle persone di elaborare il dolore attraverso interazioni virtuali. Tuttavia, la capacità di interagire con rappresentazioni digitali di persone decedute solleva interrogativi sulla natura del lutto e sull’eventuale dipendenza emotiva da tali interazioni.

Un ulteriore esempio: La capacità di influenzare le decisioni elettorali mediante tecniche di superpersuasione suscita notevoli preoccupazioni.

La manipolazione delle informazioni può compromettere la qualità del dibattito pubblico e minare la fiducia nei processi democratici. Inoltre, l’uso di contenuti generati artificialmente, come deepfake e chatbot, può confondere ulteriormente la distinzione tra verità e finzione, rendendo difficile per gli elettori formare opinioni informate.

Nonostante i rischi associati, gli algoritmi generativi offrono anche opportunità significative. Possono migliorare la comunicazione, facilitare l’accesso all’informazione e persino contribuire a soluzioni innovative in vari settori, dalla salute alla formazione. La capacità di generare contenuti su misura può, ad esempio, migliorare l’educazione personalizzata e l’assistenza sanitaria.

Per massimizzare i benefici e minimizzare i danni, è essenziale sviluppare strumenti e strategie per riconoscere e gestire gli effetti della superpersuasione.

Ciò include l’implementazione di sistemi di avviso che segnalano quando gli utenti sono soggetti a influenze manipolative e l’educazione del pubblico riguardo alle tecniche di persuasione utilizzate.

La trasparenza nell’uso degli algoritmi e la responsabilità delle piattaforme digitali sono fondamentali per mantenere la fiducia del pubblico.

La superpersuasione, alimentata dagli algoritmi generativi, rappresenta una sfida complessa per la democrazia contemporanea.

Mentre la tecnologia offre strumenti potenti per la comunicazione e l’informazione, è imperativo che la società sviluppi una consapevolezza critica riguardo alle sue applicazioni.

Solo attraverso un approccio equilibrato e informato sarà possibile sfruttare le opportunità offerte dall’intelligenza artificiale, proteggendo al contempo i valori fondamentali della democrazia e della libertà di espressione.

Complimenti a Barbara Carfagna e Massimo Cerofolini per aver realizzato un episodio e un articolo che stimolano una riflessione importante su un tema complesso e controverso. Spero che contribuiscano a diffondere una maggiore consapevolezza su questi temi cruciali per il futuro della democrazia.