L’articolo “L’Impatto dei Modelli di Intelligenza Artificiale Generativa sulle Società e la Democrazia” (epic.org 2023) presenta una valutazione dettagliata dei rischi e dei problemi associati all’utilizzo di modelli di intelligenza artificiale generativa (AI) nella società.
Questi strumenti, in grado di generare contenuti in modo estremamente preciso e naturale, hanno aperto nuove possibilità per l’innovazione e la creatività. Tuttavia, la loro capacità di produrre contenuti in modo autonomo e veloce ha anche sollevato preoccupazioni sulla loro capacità di essere utilizzati per scopi malevoli.
Gli esempi di rischi e problemi legati all’utilizzo di intelligenza artificiale generativa (AI) sono molti e vari. Ecco alcuni esempi specifici:
- Disinformazione: Gli AI generativi possono essere facilmente addestrati per produrre contenuti falsi o manipolati, che possono essere diffusi rapidamente attraverso le piattaforme online. Questo può portare a una perdita di fiducia nella veridicità delle informazioni e a una minaccia per la democrazia stessa.
Esempio: Nel 2018, l’investigatore giornalistico indiano Rana Ayyub ricevette un’email da un’origine all’interno del governo Modi. Un video di lei che si esibiva in atti sessuali stava circolando, portando a pubblica umiliazione e critiche da parte di coloro che volevano discreditarne il lavoro. Tuttavia, era un falso. La sua immagine era stata inserita in un video pornografico utilizzando una tecnologia di deepfake precoce. Come la pubblica attenzione aumentava, il suo indirizzo di casa e il numero di cellulare furono resi pubblici, portando a minacce di morte e stupro.
- Cybersecurity: Gli AI generativi possono essere utilizzati per creare malware e virus più sofisticati e difficili da identificare. Questo può portare a una minaccia significativa per la sicurezza dei sistemi informatici e la protezione dei dati personali.
Esempio: Nel 2022, un’azienda di tecnologia ha rilevato che un malware utilizzava un algoritmo di deepfake per creare un video falso di un dirigente dell’azienda che chiedeva ai dipendenti di fornire informazioni personali. Il malware era stato creato utilizzando un modello di intelligenza artificiale generativa.
- Proprietà Intellettuale: Gli AI generativi possono violare la proprietà intellettuale, poiché possono essere addestrati per imitare lo stile e il tono di artisti e creatori senza il loro consenso. Ciò può portare a una minaccia per la creatività e l’innovazione, nonché per la protezione dei diritti d’autore.
Esempio: Nel 2022, un’azienda di musica ha rilevato che un modello di intelligenza artificiale generativa aveva creato una canzone che suonava come se fosse stata composta da due artisti famosi. La canzone era stata creata utilizzando un algoritmo che aveva imparato a imitare lo stile dei due artisti.
- Privacy e Consenso: Gli AI generativi possono violare la privacy e il consenso, poiché possono essere addestrati per utilizzare dati personali senza il consenso degli individui coinvolti.
Esempio: Nel 2022, un’azienda di tecnologia ha rilevato che un modello di intelligenza artificiale generativa aveva creato un video che utilizzava immagini di persone senza il loro consenso. Il video era stato creato utilizzando un algoritmo che aveva imparato a identificare le caratteristiche facciali delle persone.
Questi sono solo alcuni esempi dei rischi e dei problemi legati all’utilizzo di intelligenza artificiale generativa. È importante che gli sviluppatori, gli utenti e le autorità lavorino insieme per garantire che questi strumenti siano utilizzati in modo etico e responsabile, proteggendo la società e la democrazia.
Ringraziamo Ing. Degni per la condivisione.
Lascia un commento
Devi essere connesso per inviare un commento.