Abbiamo come Rivista.AI scritto molto e spesso di SB 1047 perché rappresenta un punto cruciale nel dibattito sulla regolamentazione dell’intelligenza artificiale (IA) e le sue implicazioni per il futuro della tecnologia poiche’ il disegno di legge 1è attualmente un punto focale di contesa all’interno della comunità tecnologica, in particolare tra fondatori e capitalisti di rischio.
Il disegno di legge mira a imporre misure normative alle grandi aziende di intelligenza artificiale (IA), obbligandole ad assumere revisori esterni per valutare la sicurezza e le capacità dei loro modelli di IA. Ciò include disposizioni per testare i modelli per funzionalità potenzialmente pericolose e stabilire protezioni per i whistleblower che segnalano condotte scorrette.
La SB 1047, presentata dal senatore Scott Wiener, punta a prevenire disastri legati all’intelligenza artificiale richiedendo.
Le aziende che sviluppano modelli di intelligenza artificiale con costi superiori a 100 milioni di dollari o che necessitano di ingenti risorse di calcolo devono effettuare valutazioni di sicurezza.
Gli sviluppatori devono coinvolgere valutatori esterni per esaminare le misure di sicurezza.
Il disegno di legge rende gli sviluppatori responsabili dell’uso improprio dei loro modelli, con possibili sanzioni civili e penali.
Gli sviluppatori devono creare protocolli (Kill Switch) per disattivare i sistemi di intelligenza artificiale in caso di malfunzionamento.
Il disegno di legge è già stato approvato dal Senato dello Stato ed è in attesa di voto in Assemblea, con scadenza per l’approvazione legislativa entro il 31 agosto.
La reazione del settore tecnologico è stata in gran parte negativa, con molte figure di spicco che hanno espresso preoccupazione per il fatto che il disegno di legge potrebbe soffocare l’innovazione e allontanare i talenti dalla California.
I critici
I critici sostengono che i requisiti del disegno di legge potrebbero imporre notevoli oneri finanziari e operativi alle startup, in particolare a quelle che sono ancora nelle prime fasi di sviluppo. In particolare, la società di venture capital a16z ha espresso una forte opposizione, sostenendo che il disegno di legge potrebbe creare un “effetto paralizzante” sull’ecosistema dell’IA.
Molti nella comunità tecnologica temono che il disegno di legge possa ostacolare lo sviluppo dell’IA open source. I modelli open source sono fondamentali per una rapida innovazione e progressi in materia di sicurezza, ma le normative del disegno di legge potrebbero imporre responsabilità che ne scoraggiano l’uso.
Personaggi influenti nell’IA, come Fei-Fei Li e Yann LeCun, hanno criticato il disegno di legge perché potrebbe danneggiare gli sforzi di ricerca e perché si basa su timori esagerati sui rischi dell’IA. Sostengono che l’attenzione dovrebbe essere rivolta alla gestione dei rischi effettivi posti dagli utenti malintenzionati piuttosto che imporre normative generali agli sviluppatori di IA.
I sostenitori
Al contrario, il disegno di legge ha raccolto il sostegno di vari settori, in particolare quelli preoccupati per le implicazioni etiche e i rischi associati alle tecnologie AI.
I sostenitori, tra cui noti ricercatori di intelligenza artificiale come Geoffrey Hinton e Yoshua Bengio, ritengono che la SB 1047 rappresenti un passaggio necessario per mitigare i rischi prima che si trasformino in crisi. Sottolineano l’importanza di stabilire standard di sicurezza in un campo in rapida evoluzione.
Il senatore Wiener ha affermato che la legislazione mira a proteggere il pubblico dai potenziali danni associati allo sviluppo incontrollato dell’intelligenza artificiale, tracciando parallelismi con i fallimenti normativi passati nei social media e nella privacy dei dati.
Il dibattito che circonda la SB 1047 racchiude una lotta più ampia tra innovazione e regolamentazione nel settore tecnologico. Mentre i sostenitori la vedono come una salvaguardia necessaria contro potenziali disastri dell’IA, gli oppositori temono che possa ostacolare proprio l’innovazione che la legislazione mira a proteggere. Mentre l’Assemblea si prepara a votare, l’esito di questa legge potrebbe creare precedenti significativi per la regolamentazione dell’IA non solo in California, ma potenzialmente in tutti gli Stati Uniti.
In un recente sviluppo riguardante la legge californiana SB 1047, il progetto di regolamentazione dell’IA ha trovato alleati inaspettati: gli stessi dipendenti delle aziende che sviluppano la tecnologia che la legge intende governare.
Oltre 100 attuali e ex dipendenti di importanti aziende di IA hanno firmato una lettera di sostegno alla legge, esortando il governatore Gavin Newsom a firmarla.
Tra i firmatari ci sono 36 dipendenti di OpenAI, DeepMind e Meta, tutte aziende che stanno facendo pressioni per bloccare il provvedimento.La lettera non usa mezzi termini, affermando che “i modelli di IA più potenti potrebbero presto comportare gravi rischi, come l’accesso ampliato a armi biologiche e attacchi informatici alle infrastrutture critiche”.
Si sostiene che “è fattibile e appropriato per le aziende di IA all’avanguardia testare se i modelli più potenti possano causare danni gravi e implementare misure di salvaguardia ragionevoli contro tali rischi”.
Questa posizione non è solo una leggera disaccordo con la politica aziendale, ma una contraddizione diretta della linea ufficiale. Jason Kwon, capo della strategia di OpenAI, ha sostenuto che la legge ostacolerebbe l’innovazione e potrebbe portare aziende come OpenAI a lasciare la California.
Tuttavia, Kwon ha permesso ai dipendenti di firmare la lettera in disaccordo con l’azienda. Google e Meta hanno presentato argomentazioni simili, sostenendo che i requisiti della legge sono eccessivi, nonostante siano molto simili agli impegni già assunti dalle aziende con la Casa Bianca e i governi internazionali.
La lettera dei dipendenti chiarisce che una proporzione significativa delle persone che costruiscono IA avanzata crede che la legge sia urgente e necessaria. Sono profondamente preoccupati per i potenziali rischi dell’IA avanzata e, cosa più importante, non si fidano dei loro datori di lavoro per affrontare questi rischi senza un intervento governativo.
Quando le richieste provengono da tecnici e personale politico delle principali aziende di IA, è difficile ignorarle. Se a queste si aggiungono esperti di IA di spicco come Geoffrey Hinton, Yoshua Bengio e Gary Marcus, insieme a un ampio numero di accademici e alla leadership di Anthropic, l’allerta diventa assordante.
Mentre i lavoratori della tecnologia sostengono la legge, l’opposizione è guidata principalmente non da esperti di IA, ma da investitori miliardari come Marc Andreessen e Garry Tan, che hanno assunto alcuni dei più stretti alleati di Gavin Newsom per fare lobbying contro di essa. Sono affiancati da corporazioni da trilioni di dollari come Google e Meta, che hanno un passato di prioritizzazione del profitto rispetto all’interesse pubblico.
Anche molti degli scienziati apparentemente indipendenti che si oppongono alla legge hanno conflitti di interesse significativi.
Il caso più noto è quello di Fei-Fei Li, che dirige una startup da un miliardo di dollari con investimenti da Andreessen Horowitz; Andrew Ng, nel frattempo, gestisce un enorme fondo di investimento in IA.
La domanda ora è: a chi darà ascolto Newsom? Si piegherà, come Nancy Pelosi, Zoe Lofgren e London Breed, agli interessi dei ricchi e potenti?
Oppure ascolterà gli avvertimenti dei lavoratori che stanno effettivamente costruendo questa tecnologia, sempre più vocali riguardo alle loro preoccupazioni?
Con una scadenza fissata per il 30 settembre, lo sapremo presto.