Lo scorso luglio, le principali aziende di intelligenza artificiale hanno fatto impegni volontari alla Casa Bianca riguardo alla sicurezza dell’IA. Quello che all’epoca era considerato un evento storico ha visto le aziende promettere di condurre ricerche sulla sicurezza, istituire programmi di bug bounty e testare i loro modelli prima del lancio. Secondo il presidente Biden, questi impegni erano “reali” e “concreti” e avrebbero aiutato l’industria a “soddisfare il suo obbligo fondamentale nei confronti degli americani di sviluppare tecnologie sicure, protette e affidabili.”
Tuttavia, un anno dopo, l’aderenza a questi impegni è disomogenea, sollevando interrogativi sull’efficacia dell’auto-regolamentazione.
Valutazioni sulla Sicurezza
Zach Stein-Perlman, un ricercatore indipendente che ha valutato gli sforzi di sicurezza dei laboratori per AI Lab Watch, ha affermato che le aziende hanno ripetutamente fallito nel rispettare gli impegni. Ad esempio, il programma di “bug bounty” di OpenAI esclude problematiche relative ai suoi modelli, nonostante ciò fosse parte degli impegni. Microsoft e Meta, nel frattempo, non sembrano testare i loro modelli per capacità come quella di auto-replicarsi, un compito esplicitamente menzionato negli impegni presi con la Casa Bianca. Un portavoce di Meta ha dichiarato che, sebbene l’azienda non testi specificamente per l’auto-replicazione, valuta i suoi modelli per capacità autonome nel cyber spazio, che potrebbero essere considerate un precursore dell’auto-replicazione.
Implementazione Debole
Sebbene la maggior parte delle aziende stia tecnicamente rispettando la maggior parte degli impegni, l’implementazione è spesso debole, ha osservato Stein-Perlman. Prendiamo i bug bounty, ad esempio. Le aziende hanno promesso alla Casa Bianca di istituire incentivi per terzi per scoprire e segnalare problemi e vulnerabilità, ma il linguaggio utilizzato è così vago che “anche un bug bounty che esclude molte problematiche con i modelli può essere considerato conforme all’impegno,” ha affermato Stein-Perlman. I programmi di bounty di Google, Microsoft e Meta, ad esempio, tecnicamente soddisfano l’impegno ma escludono preoccupazioni di sicurezza importanti come jailbreak o l’uso improprio dei modelli.
I bug bounty non sono l’unica implementazione debole. Secondo un recente articolo del Washington Post, OpenAI ha affrettato i test interni per GPT-4o in una settimana. “Hanno pianificato la festa di lancio prima di sapere se era sicuro procedere,” ha dichiarato un informatore di OpenAI al Washington Post. “In sostanza, abbiamo fallito nel processo.”
Trasparenza e Valutazione
Grant Fergusson di EPIC, un gruppo di advocacy per le politiche digitali, ha concordato con Stein-Perlman sulla debolezza degli impegni volontari. “In gran parte, sembra che abbiano messo insieme le apparenze di uno sviluppo e utilizzo responsabile dell’IA, senza però un adeguato seguito,” ha affermato.
Fergusson ha notato che la scarsa trasparenza delle aziende rende difficile monitorare quanto bene stiano rispettando gli impegni. Anche per le aziende che affermano di aver effettuato un red-teaming completo, “non conosciamo realmente i risultati del loro red teaming e non sappiamo esattamente cosa stanno testando quando lo fanno.”
Nonostante queste carenze, gli impegni volontari continuano a essere il principale meccanismo attraverso cui vengono implementate le misure di sicurezza per l’IA. A maggio, le aziende hanno promesso di creare politiche di scalabilità responsabili, che delineano come i laboratori valuteranno i rischi e le soglie a cui mitigheranno i rischi. Tuttavia, non ci sono ancora regole vincolanti negli Stati Uniti per garantire il rispetto di tali impegni.
Futuro della Regolamentazione
Alcuni esperti hanno affermato che gli impegni volontari rappresentano un buon primo passo, offrendo velocità e flessibilità rispetto alla legislazione e consentendo ai responsabili politici di vedere prototipi di potenziali politiche in azione. Le aziende hanno anche espresso supporto per l’approccio della Casa Bianca. “Gli impegni della Casa Bianca hanno davvero servito come base per gran parte del lavoro qui con i responsabili politici, ma anche con i governi a livello globale,” ha recentemente dichiarato Shannon Kellogg, VP di Public Policy di Amazon, alla Washington AI Network.
Tuttavia, molti sono scettici riguardo all’adeguatezza delle misure volontarie. “Non penso che possiamo fare affidamento esclusivamente su test e valutazioni volontari indefinitamente,” ha affermato Chris Painter di METR, un’organizzazione di ricerca no-profit focalizzata sulla valutazione dell’IA. “Alla fine, avremo bisogno di valutazioni esterne con potere vincolante.”