All’inizio del 2025, la California ha implementato una serie di leggi pionieristiche volte a regolamentare l’uso dei deepfake generati dall’intelligenza artificiale (IA), consolidando la sua posizione di leader nella legislazione tecnologica. Queste normative affrontano diverse problematiche legate all’IA, con l’obiettivo di proteggere i cittadini da abusi e manipolazioni digitali.

Una delle leggi più significative estende le normative contro la pornografia infantile, includendo le rappresentazioni di minori generate artificialmente. Questa misura mira a colmare le lacune legislative esistenti, riconoscendo che anche le immagini create dall’IA possono causare danni reali e perpetuare l’abuso. Inoltre, è stata introdotta una legge che criminalizza la creazione e la distribuzione di deepfake pornografici senza il consenso delle persone coinvolte, riconoscendo l’impatto devastante che tali contenuti possono avere sulla vita delle vittime.

Parallelamente, le piattaforme di social media sono ora obbligate a rimuovere tempestivamente i deepfake segnalati, soprattutto durante i periodi elettorali, per prevenire la diffusione di disinformazione e proteggere l’integrità del processo democratico. Tuttavia, questa normativa ha già incontrato ostacoli legali; ad esempio, una legge che richiedeva la rimozione di deepfake politici fuorvianti è stata bloccata da un giudice a causa di potenziali violazioni del Primo Emendamento.

Un’altra area di intervento riguarda l’uso non autorizzato di repliche digitali di persone decedute. Le nuove leggi proibiscono la creazione e l’utilizzo di tali repliche senza il consenso degli eredi, affrontando preoccupazioni etiche e legali sull’appropriazione dell’identità digitale post-mortem. Inoltre, i comitati politici sono ora tenuti a dichiarare esplicitamente quando utilizzano l’IA per creare o modificare annunci pubblicitari, garantendo una maggiore trasparenza nei confronti degli elettori.

Queste iniziative legislative riflettono una crescente preoccupazione per l’impatto dell’IA sulla società e rappresentano un tentativo di bilanciare l’innovazione tecnologica con la protezione dei diritti individuali. Come ha affermato Goli Mahdavi, partner dello studio legale Bryan Cave Leighton Paisner specializzato in intelligenza artificiale, “È giusto dire che la California è leader nella legislazione sull’intelligenza artificiale”.

Tuttavia, l’implementazione di queste leggi non è priva di sfide. Alcune normative hanno già affrontato resistenze legali, sollevando dibattiti sul bilanciamento tra regolamentazione e libertà di espressione. Ad esempio, una legge che richiedeva alle piattaforme di social media di etichettare i deepfake politici fuorvianti è stata oggetto di una causa legale da parte di X (precedentemente Twitter) e del sito satirico Babylon Bee, evidenziando le complessità nel regolamentare contenuti digitali senza compromettere i diritti costituzionali.

Con l’inazione del Congresso sull’IA che potrebbe protrarsi nel 2025, si prevede che un numero crescente di stati adotterà proprie leggi per governare questa tecnologia emergente. Ad esempio, il Texas ha presentato una bozza di legge che vieterebbe l’uso di sistemi di punteggio sociale e riconoscimento delle emozioni, mentre l’Illinois proibirà l’uso dell’IA per discriminare nelle assunzioni a partire dal 1° gennaio 2026. Il Colorado AI Act richiederà agli sviluppatori di IA di esercitare una “ragionevole attenzione” per proteggere i consumatori dalla discriminazione, a partire dal 1° febbraio 2026.

In questo contesto, la California continua a svolgere un ruolo cruciale nel plasmare il panorama normativo dell’IA negli Stati Uniti, affrontando le sfide poste dalle tecnologie emergenti e cercando di garantire che l’innovazione proceda di pari passo con la responsabilità e la tutela dei diritti dei cittadini.