Il Senato degli Stati Uniti ha approvato all’unanimità il DEFIANCE Act, una legge per combattere la pornografia deepfake non consensuale. Permette alle vittime di citare in giudizio i creatori e i distributori per danni fino a $150.000.

Questa legge arriva mentre gli stati stanno adottando misure simili per affrontare la minaccia dei contenuti espliciti generati dall’intelligenza artificiale e il loro potenziale sfruttamento e interferenza elettorale.

Questo importo sale a $250.000 se il contenuto riguarda tentata violenza sessuale, stalking o molestie. Con un termine di prescrizione di 10 anni, il disegno di legge offre alle vittime ampio tempo per cercare giustizia, a partire dalla scoperta del contenuto o dal compimento dei 18 anni nei casi di minori.

Negli Stati Uniti, numerosi stati hanno adottato misure legislative per affrontare la crescente minaccia della pornografia deepfake:

  • Pennsylvania, New Hampshire, West Virginia, Iowa e Michigan hanno approvato o stanno valutando progetti di legge per criminalizzare la creazione e la distribuzione di contenuti sessualmente espliciti generati dall’intelligenza artificiale senza consenso.
  • La Florida e il Colorado hanno emanato leggi che regolano l’uso dei deepfake nella pubblicità politica.
  • Queste iniziative a livello statale spesso includono disposizioni per danni civili, rimozione obbligatoria dei contenuti e sanzioni più severe per i reati che coinvolgono i minori.

Le principali disposizioni della legislazione sui deepfake includono la criminalizzazione della creazione o distribuzione di immagini sessualmente esplicite generate dall’intelligenza artificiale senza consenso, l’obbligo di divulgare i contenuti politici generati dall’intelligenza artificiale e la rimozione rapida del materiale deepfake non consensuale. Queste leggi mirano a proteggere le persone, specialmente donne e minori, dallo sfruttamento, preservare l’integrità delle elezioni e affrontare l’abuso della tecnologia deepfake.

L’applicazione delle leggi sui deepfake rappresenta una sfida significativa per le forze dell’ordine e i sistemi legali. La rapida evoluzione della tecnologia AI spesso supera i quadri normativi, rendendo difficile combattere efficacemente la creazione e la distribuzione di deepfake dannosi
Gli ostacoli principali includono la natura globale di Internet, che complica le questioni giurisdizionali, e la complessità tecnica del rilevamento e dell’autenticazione dei deepfake.


Le forze dell’ordine potrebbero non avere le competenze e gli strumenti specializzati necessari per indagare su questi casi, mentre i tribunali affrontano difficoltà nell’ammettere e valutare le prove digitali
Inoltre, la tensione tra la regolamentazione dei deepfake e la protezione della libertà di espressione crea ambiguità legali che possono ostacolare gli sforzi di applicazione.

Per affrontare queste problematiche, gli esperti raccomandano di sviluppare nuove tecnologie di rilevamento, potenziare le capacità di analisi forense digitale e promuovere la cooperazione internazionale per creare quadri giuridici più completi e adattabili.

Elaborare una legislazione efficace contro i deepfake presenta diverse sfide, come bilanciare la libertà di parola con la necessità di prevenire danni, garantire che le leggi seguano l’evoluzione dell’intelligenza artificiale e affrontare le questioni giurisdizionali per i contenuti online.

Nonostante questi ostacoli, c’è un ampio sostegno bipartisan per affrontare la questione, come dimostra l’approvazione unanime del DEFIANCE Act da parte del Senato.

Tuttavia, i dibattiti continuano sui dettagli dell’implementazione e dell’applicazione, con alcuni legislatori che premono per sanzioni più severe e altri che sostengono una maggiore attenzione ai provvedimenti ingiuntivi per rimuovere rapidamente i contenuti fraudolenti.