I procuratori federali statunitensi stanno aumentando i loro sforzi per combattere l’uso dell’intelligenza artificiale (AI) nella creazione e manipolazione di immagini di abuso sessuale infantile. Questa iniziativa è guidata dalle preoccupazioni che la tecnologia AI generativa possa portare a un aumento del materiale illecito. Il Dipartimento di Giustizia degli Stati Uniti ha già avviato due casi penali quest’anno contro individui accusati di utilizzare sistemi di AI per produrre immagini esplicite di bambini.
James Silver, vice capo della Sezione Crimine Informatico e Proprietà Intellettuale del Dipartimento di Giustizia, ha sottolineato l’urgenza di affrontare questa questione, affermando: “Ci sarà altro in arrivo.” Ha espresso preoccupazione per la normalizzazione dei contenuti espliciti generati da AI, avvertendo che, man mano che più immagini di questo tipo circolano, potrebbero diventare sempre più accettate.
Sfide Legali e Nuove Precedenti
L’emergere dell’AI generativa pone sfide significative per i procuratori, soprattutto mentre cercano di applicare leggi esistenti a crimini che coinvolgono contenuti generati da AI. Gli esperti legali notano che i casi riguardanti immagini che non ritraggono bambini identificabili potrebbero richiedere accuse basate sulle leggi sull’oscenità piuttosto che sulle tradizionali leggi sulla pornografia infantile.
Ad esempio, Steven Anderegg, un ingegnere del software del Wisconsin, è stato incriminato per aver presumibilmente generato oltre 13.000 immagini esplicite utilizzando il modello AI Stable Diffusion. Affronta gravi accuse, tra cui il trasferimento di materiale osceno e potrebbe affrontare una lunga pena detentiva se condannato. Allo stesso modo, un soldato dell’esercito di nome Seth Herrera è stato accusato di aver utilizzato strumenti di AI per creare immagini abusive di bambini che conosceva.
Gli attivisti per la sicurezza dei bambini stanno lanciando allarmi riguardo al potenziale dell’AI generativa di complicare la capacità delle forze dell’ordine di identificare le vere vittime. Il National Center for Missing and Exploited Children ha riportato circa 450 segnalazioni mensili relative all’AI generativa, che è una piccola frazione rispetto ai complessivi 3 milioni di segnalazioni ricevute lo scorso anno riguardo all’abuso infantile online.
Organizzazioni come Thorn e All Tech Is Human hanno avviato impegni con grandi aziende tecnologiche per prevenire che i loro modelli AI vengano addestrati su immagini di abuso sessuale infantile. Mirano a monitorare attivamente le piattaforme per frenare la creazione e la diffusione di contenuti dannosi.
Con l’evoluzione continua della tecnologia AI generativa, si presentano sfide senza precedenti per i quadri giuridici relativi allo sfruttamento infantile. I procuratori stanno navigando in un territorio legale inesplorato mentre chiedono misure più forti contro l’abuso dell’AI nella creazione di contenuti dannosi. La collaborazione tra le forze dell’ordine e le organizzazioni di advocacy sarà cruciale per affrontare efficacemente questa crescente minaccia.