Riforme Legislative sull’Intelligenza Artificiale in California
La legislatura della California sta attualmente esaminando una serie di proposte di legge che mirano a regolare l’uso dell’intelligenza artificiale (IA) nel contesto nazionale, seguendo l’esempio di altri stati come il Colorado e lo Utah. Queste iniziative legislative, se approvate, contribuiranno a formare un quadro normativo più robusto per la gestione dei sistemi di IA, specialmente quelli ad alto rischio.
**** Proposte di Legge in Discussione
Attualmente, sette progetti di legge sono in fase di revisione, tutti già approvati dalla loro camera di origine. La sessione legislativa della California non si concluderà prima del 31 agosto 2024, il che offre ulteriore tempo per l’approvazione di queste misure. Ecco una sintesi delle principali proposte:
- AB2930: Si propone di ridurre la discriminazione algoritmica, vietando l’uso di strumenti di decisione automatizzata che possano comportare trattamenti ingiustificati basati su razza, sesso o altre categorie protette. Richiede anche valutazioni annuali dell’impatto e avvisi per le persone interessate.
- SB1047: Il “Safe and Secure Innovation for Frontier Artificial Intelligence Act” stabilisce standard per i modelli di IA avanzati, imponendo requisiti di sicurezza e test di capacità, oltre a certificazioni annuali.
- AB3211: Richiede ai fornitori di IA generativa di inserire filigrane nei contenuti generati e di effettuare divulgazioni sui dati di provenienza. Le piattaforme online devono anche rilevare e etichettare contenuti sintetici.
- AB2013: Obbliga gli sviluppatori di IA a pubblicare informazioni sui set di dati utilizzati, inclusa la generazione di dati sintetici.
- AB2885: Introduce una nuova definizione di “intelligenza artificiale” nel codice californiano, chiarendo i criteri di autonomia e impatto degli output generati.
- AB1791: Richiede alle piattaforme di social media di censurare i dati di provenienza personali, ma non quelli generati dal sistema.
- SB942: Il “California AI Transparency Act” impone ai fornitori di IA generativa di creare strumenti di rilevamento accessibili al pubblico per identificare contenuti generati da IA.
**** Situazione Attuale
Alcuni di questi disegni di legge sono già stati approvati da entrambe le camere e sono in attesa di ulteriori discussioni. Altri, come la SB970 e l’AB3204, non hanno superato il termine di esame e sono stati accantonati.
Queste proposte di legge rappresentano un passo significativo per garantire che l’uso dell’intelligenza artificiale in California sia etico, trasparente e responsabile, affrontando le preoccupazioni relative alla discriminazione e alla sicurezza dei dati. Con la crescente diffusione dell’IA, queste normative potrebbero servire da modello per altre giurisdizioni negli Stati Uniti e oltre.
Approfondimento sul SB1047: Il “Safe and Secure Innovation for Frontier Artificial Intelligence Act” stabilisce standard per i modelli di IA avanzati, imponendo requisiti di sicurezza e test di capacità, oltre a certificazioni annuali.
Secondo l’AI Act, il rischio sistemico per un modello LLM è fissato a 10251025 FLOPs (Floating Point Operations per Second), un’unità di misura della capacità computazionale.
Questo valore è stato stabilito come soglia per classificare i modelli di intelligenza artificiale ad alto rischio.
Tuttavia, la Commissione Europea ha chiarito che si tratta di una presunzione che può essere superata a discrezione della stessa Commissione, suggerendo che la potenza di calcolo non è l’unico fattore determinante per valutare il rischio di un modello.
In contrasto, il Bill del Senato della California ha fissato una soglia più elevata di 10261026 FLOPs per i cosiddetti “Frontier Models”, che sono considerati tra i più avanzati e potenzialmente pericolosi. Questa differenza nelle soglie solleva interrogativi sulla coerenza e sull’efficacia delle misure di regolamentazione a livello globale.
Critiche e controversie
Le polemiche riguardano principalmente la definizione e l’applicazione di queste soglie. Molti esperti ritengono che i valori fissati siano troppo elevati, considerando le capacità attuali dei modelli LLM, il che potrebbe portare a una sottovalutazione dei rischi associati.
Inoltre, la regolamentazione si basa su criteri tecnici e di mercato che potrebbero non riflettere adeguatamente le complessità e le dinamiche in evoluzione del settore dell’IA.
Alcuni critici avvertono che una regolamentazione troppo rigida potrebbe ostacolare l’innovazione, mentre altri sostengono che non fare abbastanza per regolamentare i modelli più potenti potrebbe esporre la società a rischi significativi.
La questione si complica ulteriormente con l’emergere di nuovi modelli e tecnologie che potrebbero superare rapidamente le soglie stabilite, rendendo necessaria una revisione continua delle normative.
Lascia un commento
Devi essere connesso per inviare un commento.