Negli ultimi anni, l’Unione Europea ha intrapreso un percorso ambizioso per regolamentare l’intelligenza artificiale (IA), mirando a bilanciare l’innovazione tecnologica con la tutela dei diritti dei cittadini. Questo viaggio normativo ha visto l’introduzione di proposte chiave come l’AI Act e la Direttiva sulla Responsabilità dell’IA (AILD).

L’AI Act, considerato il primo quadro giuridico orizzontale sull’IA, è stato proposto nell’aprile 2021 con l’obiettivo di affrontare i rischi associati all’IA e fornire requisiti chiari per sviluppatori, utilizzatori e utenti, modulati in base al livello di rischio delle applicazioni

Parallelamente, nel settembre 2022, la Commissione Europea ha presentato la proposta di Direttiva sulla Responsabilità dell’IA, mirata ad armonizzare le regole sulla responsabilità civile non contrattuale per i danni causati da sistemi IA. Questa direttiva intende garantire che le persone danneggiate da sistemi IA ricevano lo stesso livello di protezione di coloro che subiscono danni da altre tecnologie, facilitando l’onere della prova per i richiedenti attraverso meccanismi come la divulgazione delle prove per i sistemi IA ad alto rischio e presunzioni confutabili

Tuttavia, il percorso verso l’adozione di queste normative non è stato privo di ostacoli. Recentemente, il 12 febbraio 2025, la Commissione Europea ha ritirato alcune proposte di regolamentazione, tra cui quelle relative ai brevetti tecnologici, alla responsabilità dell’IA e alla privacy online, citando le scarse probabilità di approvazione da parte dei legislatori dell’UE e degli Stati membri

Nonostante ciò, il dibattito sulla responsabilità dell’IA rimane acceso. Il 5 dicembre 2024, la commissione JURI del Parlamento Europeo ha discusso la proposta dell’AILD, evidenziando opinioni divergenti sulla necessità di armonizzare il regime di responsabilità civile non contrattuale per i prodotti IA nell’UE. Successivamente, il 30 gennaio 2025, la stessa commissione ha organizzato un’audizione sulla proposta, accompagnata dalla presentazione di uno studio complementare dell’EPRS sull’AILD. Il relatore prevede di pubblicare il suo rapporto preliminare il 4 giugno 2025

In questo contesto, le parole del Vicepresidente della Commissione Europea, Maroš Šefčovič, assumono particolare rilevanza. La sua recente dichiarazione, “Questo è il nostro invito ai co-legislatori, diteci: volete lavorare su questa proposta di responsabilità dell’IA?”, sottolinea l’importanza di una collaborazione attiva tra le istituzioni europee per definire un quadro normativo efficace e condiviso.

In una mossa inaspettata, la Commissione Europea ha annunciato il ritiro della proposta di Direttiva sulla Responsabilità dell’Intelligenza Artificiale (AILD), una normativa chiave progettata per regolamentare la responsabilità per i danni causati dai sistemi di IA. Questa decisione, comunicata nel programma di lavoro 2025 della Commissione, ha suscitato un acceso dibattito sulle implicazioni per l’industria tecnologica europea e la tutela dei consumatori.

L’AILD mirava a modernizzare il quadro giuridico europeo, adattandolo alle sfide poste dall’era digitale. Uno degli obiettivi principali era facilitare le richieste di risarcimento da parte delle vittime di danni causati da sistemi di IA, invertendo l’onere della prova. Invece di richiedere un nesso causale diretto, i tribunali avrebbero potuto presumere la causalità, mettendo le aziende di IA in una posizione legale più vulnerabile. Inoltre, la direttiva includeva requisiti di alfabetizzazione sull’IA, imponendo alle imprese che utilizzano tali tecnologie di dimostrare competenze adeguate per evitare esposizioni legali.

Il ritiro della direttiva è stato influenzato da diversi fattori. Innanzitutto, la mancanza di consenso politico tra gli Stati membri dell’UE ha reso difficile l’adozione di una posizione unificata. Inoltre, pressioni esterne hanno giocato un ruolo significativo.

Durante l’AI Action Summit a Parigi, il Vicepresidente degli Stati Uniti, JD Vance, ha criticato l’approccio regolatorio dell’UE, avvertendo che una regolamentazione eccessiva potrebbe soffocare l’innovazione nel settore dell’IA. Ha sottolineato che tali normative potrebbero “uccidere un’industria trasformativa proprio mentre sta decollando”.

Le implicazioni di questa decisione sono molteplici. Da un lato, la responsabilità per i danni causati dall’IA sarà ora determinata dai singoli sistemi legali dei 27 Stati membri, portando a potenziali incoerenze e frammentazioni all’interno dell’Europa. Dall’altro, alcuni sostengono che questa scelta potrebbe ridurre il rischio legale per le startup e le PMI nel settore dell’IA, favorendo un ambiente più propizio all’innovazione.

Nonostante il vuoto normativo creato dal ritiro dell’AILD, la Direttiva sulla Responsabilità per Danno da Prodotti Difettosi (PLD) fornisce ancora alcuni meccanismi di responsabilità per i danni legati all’IA. Tuttavia, la PLD, originariamente concepita per prodotti tradizionali, potrebbe non essere completamente adeguata a gestire le complessità e le peculiarità dei sistemi di IA moderni.

Questa situazione solleva interrogativi cruciali sul futuro della regolamentazione dell’IA in Europa. La decisione della Commissione rappresenta una vittoria per l’innovazione o un passo indietro nella responsabilizzazione delle tecnologie emergenti? Mentre alcuni vedono nel ritiro dell’AILD un’opportunità per evitare una regolamentazione eccessiva e promuovere la crescita del settore, altri esprimono preoccupazione per la mancanza di protezioni adeguate per i consumatori e per le potenziali vittime di danni causati dall’IA.

Sebbene tecnicamente le istituzioni europee potrebbero continuare a lavorare sul dossier, le attuali dinamiche politiche nel Consiglio rendono improbabile una sua ripresa.

I membri del Parlamento Europeo potrebbero richiedere un confronto con il Commissario McGrath per chiarimenti, ma ciò avrebbe un impatto limitato sulla situazione. Un’opzione più drastica sarebbe contestare la decisione davanti alla Corte di Giustizia dell’UE, ma precedenti giuridici (come il caso C-409/13) conferiscono alla Commissione un ampio margine di discrezionalità in merito.

Di fatto, questo potrebbe davvero essere l’epilogo della vicenda AILD. Non sapremo mai se la direttiva sarebbe potuto diventare uno strumento efficace o se sarebbe rimasta un tentativo inefficace di disciplinare un settore in rapida evoluzione. Ciò che resta è una lezione per i futuri legislatori: inseguire l’hype mediatico non può essere la base di una politica solida e sostenibile.

The EU AI Liability Directive (AILD): Bridging Information Gaps

Marta Ziosi,Jakob Mökander,Claudio Novelli,Federico Casolari,Mariarosaria Taddeo,Luciano Floridi