Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’Intelligenza Artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue.

La legge, la prima al mondo in materia detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.

L’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo questa pubblicazione, mentre il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

L’adozione della legge sull’intelligenza artificiale è una pietra miliare significativa per l’Unione europea. Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con la legge sull’AI, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo al contempo che questa tecnologia in rapida evoluzione possa prosperare e dare impulso all’innovazione europea.

Mathieu Michel, segretario di Stato belga per la digitalizzazione, la semplificazione amministrativa, la tutela della privacy e il regolamento edilizio

Il Consiglio ha dichiarato che la nuova legge sull’intelligenza artificiale adotta un approccio “basato sul rischio”.

Questo implica che, quanto maggiore è il rischio di danni alla società, tanto più severe saranno le regole. L’agenzia ha chiarito che la legge si applica solo in contesti regolati dal diritto dell’UE e include esenzioni per sistemi usati esclusivamente per scopi militari, di difesa o di ricerca.

Inoltre, il Consiglio ha stabilito che sistemi di intelligenza artificiale come la manipolazione cognitivo-comportamentale e il punteggio sociale saranno vietati nell’UE. La legge impedisce anche l’uso dell’IA per la polizia predittiva basata sulla profilazione e per i sistemi che classificano le persone in base a dati biometrici come razza, religione o orientamento sessuale.

I sistemi di IA a basso rischio avranno requisiti di trasparenza minimi, mentre quelli ad alto rischio saranno soggetti a regolamentazioni stringenti per poter accedere al mercato dell’UE. I modelli di IA per scopi generici, o GPAI, senza rischi sistemici, dovranno rispettare alcune regole limitate.

Le aziende che violeranno l’AI Act affronteranno sanzioni calcolate in percentuale sul fatturato globale annuo dell’anno precedente o in un importo predefinito, scegliendo il più alto. Le PMI e le start-up saranno soggette a sanzioni amministrative proporzionali.

In passato, l’UE ha sostenuto una posizione più severa sulla gestione dell’intelligenza artificiale, mentre il Giappone ha preferito un approccio più morbido, simile a quello degli Stati Uniti, per promuovere la crescita economica.

Nel mese di ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo per gestire i rischi legati all’intelligenza artificiale. Anche i paesi del sud-est asiatico hanno adottato un approccio favorevole alle imprese in materia di IA.

La Cina ha avviato un’iniziativa per regolamentare l’IA da diverse prospettive.

All’inizio di questo mese, funzionari di Stati Uniti e Cina si sarebbero dovuti incontrare a Ginevra per discutere della mitigazione dei rischi derivanti dall’intelligenza artificiale avanzata.

Per i documenti di approfondimento leggi il comunicato stampa del Consiglio d’Europa.