Il disegno di legge, già approvato dalla Commissione della California, ha subito modifiche significative per rispondere alle preoccupazioni espresse da Anthropic e da altri nel settore.
Tra le modifiche più rilevanti, il procuratore generale della California non potrà più citare in giudizio le aziende di intelligenza artificiale per pratiche di sicurezza negligenti prima che si verifichi un evento su larga scala. Invece, potrà richiedere un provvedimento ingiuntivo per fermare attività pericolose e citare in giudizio solo dopo che un incidente informatico si è effettivamente verificato.
Inoltre, la responsabilità per danni informatici sarà limitata solo a chi investe oltre 10 milioni di dollari nello sviluppo di modelli di intelligenza artificiale, escludendo così molte piccole aziende dal rischio legale. Questi cambiamenti sono stati adottati per soddisfare le esigenze della comunità open source e per garantire che la legge non ostacoli l’innovazione nel settore dell’AI.
Ecco i dettagli delle principali modifiche apportate:
Modifiche Chiave al Disegno di Legge
Limitazione della Responsabilità:
- Il procuratore generale della California non potrà più citare in giudizio le aziende di intelligenza artificiale per pratiche di sicurezza negligenti prima che si verifichi un evento su larga scala. Questo cambiamento risponde alle preoccupazioni di Anthropic, che ha sottolineato la necessità di un approccio più equilibrato.
Provvedimenti Ingiuntivi:
- Invece di procedere con azioni legali immediate, il procuratore generale potrà richiedere un provvedimento ingiuntivo per fermare attività che considera pericolose, citando in giudizio solo dopo che un incidente informatico è effettivamente avvenuto.
Responsabilità Limitata per le Piccole Aziende:
- La responsabilità per danni informatici sarà attribuita solo a chi investe oltre 10 milioni di dollari nello sviluppo di modelli di intelligenza artificiale, escludendo così molte piccole aziende dal rischio legale
Espansione del Consiglio di Supervisione:
- Il consiglio che disciplina le linee guida sulla sicurezza, precedentemente composto da cinque membri, sarà ampliato a nove membri, aumentando così la rappresentanza e la supervisione nella regolamentazione dei modelli di intelligenza artificiale.
Requisiti di Sicurezza:
- Le aziende che sviluppano modelli avanzati di IA dovranno implementare protocolli di sicurezza e introdurre un “kill switch” per spegnere il modello in caso di emergenza. Questo è mirato a prevenire usi dannosi dell’IA, come la creazione di armi di distruzione di massa o attacchi informatici.
Creazione della Frontier Model Division (FMD):
- Sarà istituita una divisione specifica per supervisionare l’attuazione delle norme, garantendo che le aziende rispettino i requisiti di sicurezza stabiliti dalla legge.
Implicazioni e Reazioni
Queste modifiche sono state accolte con favore da alcuni nel settore, ma hanno anche suscitato forti critiche. Diverse figure di spicco, tra cui Nancy Pelosi e esperti come Fei-Fei Li e Andrew Ng, hanno espresso preoccupazioni riguardo al potenziale impatto negativo della legge sull’innovazione e sull’ecosistema dell’IA, temendo che possa ostacolare la crescita delle piccole aziende e della comunità open source.
Come startup attiva nel settore dell’AI, Anthropic ha un forte interesse nel garantire che le normative non ostacolino la sua capacità di innovare. Ha lavorato con i legislatori per rivedere la proposta di legge, cercando di bilanciare le preoccupazioni di sicurezza con la necessità di promuovere un ambiente favorevole all’innovazione,
Sara’ lo stesso per l’AI Act? Germania e Francia sono di questo avviso in Europa vogliono attrarre capitali e favorire Innovazione, altri paesi tra cui l’Italia pensano che un’approccio piu’ Duro sia la strada giusta.
La SB 1047 è diretta all’assemblea della California per il voto finale. Se approvata, verrà inviata al Senato della California per votare sugli ultimi emendamenti. Se passerà entrambe, arriverà sulla scrivania del governatore Newsom, dove potrà essere veto o diventare legge.