Il governo degli Stati Uniti ha creato un istituto dedicato alla sicurezza dell’intelligenza artificiale per guidare la cooperazione tra il settore pubblico e quello privato allo sviluppo di sistemi di intelligenza artificiale sicuri, ha affermato un alto funzionario dell’amministrazione Biden.

L’AISI ha pubblicato il suo progetto iniziale il 31 luglio 2024, delineando le migliori pratiche per i sviluppatori per gestire i rischi di abuso associati ai modelli fondazionali a doppio uso, che possono potenzialmente facilitare attività dannose come lo sviluppo di armi biologiche o attacchi informatici.

Le linee guida erano aperte ai commenti pubblici fino al 9 settembre 2024. Gli stakeholder hanno fornito feedback su vari aspetti del progetto, sottolineando la necessità di un approccio completo alla gestione dei rischi.