Il governo degli Stati Uniti ha creato un istituto dedicato alla sicurezza dell’intelligenza artificiale per guidare la cooperazione tra il settore pubblico e quello privato allo sviluppo di sistemi di intelligenza artificiale sicuri, ha affermato un alto funzionario dell’amministrazione Biden.

L’AISI ha pubblicato il suo progetto iniziale il 31 luglio 2024, delineando le migliori pratiche per i sviluppatori per gestire i rischi di abuso associati ai modelli fondazionali a doppio uso, che possono potenzialmente facilitare attività dannose come lo sviluppo di armi biologiche o attacchi informatici.

Le linee guida erano aperte ai commenti pubblici fino al 9 settembre 2024. Gli stakeholder hanno fornito feedback su vari aspetti del progetto, sottolineando la necessità di un approccio completo alla gestione dei rischi.

Sintesi dei Commenti

Differenziazione dei Rischi: Il Center for Data Innovation ha raccomandato che l’AISI differenzi tra rischi prevedibili e rischi dipendenti dal contesto, come quelli derivanti da chatbot AI rispetto allo sviluppo di farmaci.

Sistemi Multi-Agente: Sono state sollevate preoccupazioni riguardo ai rischi in ambienti multi-agente dove più sistemi AI interagiscono, potenzialmente portando a fallimenti a cascata che le linee guida attuali non affrontano adeguatamente.

Meccanismo di Segnalazione degli Incidenti: Diverse organizzazioni hanno suggerito l’implementazione di un meccanismo di segnalazione degli incidenti per monitorare gli abusi dopo il rilascio, garantendo una gestione continua del rischio oltre la fase di sviluppo iniziale.

Coinvolgimento di Esperti: C’è una richiesta per linee guida più esplicite sul coinvolgimento di esperti del settore—come scienziati sociali ed esperti di salute pubblica—nell’identificazione e mitigazione dei rischi di abuso, in particolare in relazione a questioni di pregiudizio e discriminazione.

Linee Guida per Modelli Aperti vs. Chiusi: Il feedback ha evidenziato la necessità di linee guida su misura che riconoscano le sfide uniche poste sia dai modelli open source che da quelli closed source nella gestione dei rischi di abuso.

    L’iniziativa dell’AISI rappresenta un passo significativo verso l’affrontare le complesse sfide poste dai modelli AI a doppio uso. I feedback ricevuti durante il periodo di commento pubblico influenzeranno probabilmente le linee guida finali, con l’obiettivo di creare un framework più sicuro per lo sviluppo e l’implementazione dell’AI.