Il governo degli Stati Uniti ha recentemente firmato accordi significativi con le aziende di intelligenza artificiale Anthropic e OpenAI, sostenuta da Microsoft. Questi accordi, noti come memorandum d’intesa, sono stati annunciati dall’Artificial Intelligence Safety Institute (AISI), che opera sotto il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti.

Sotto questi accordi, l’AISI avrà accesso ai nuovi modelli significativi di Anthropic e OpenAI sia prima che dopo la loro distribuzione pubblica. Questo accesso consentirà all’istituto di condurre ricerche collaborative per valutare le capacità e i rischi di sicurezza associati a questi modelli, oltre a sviluppare metodi per mitigare tali rischi.

La collaborazione mira a migliorare la scienza della sicurezza dell’IA, un aspetto cruciale per promuovere l’innovazione tecnologica in modo responsabile. Elizabeth Kelly, direttrice dell’AISI, ha dichiarato che “la sicurezza è essenziale per alimentare l’innovazione tecnologica rivoluzionaria” e ha espresso entusiasmo per l’inizio di queste collaborazioni tecniche.

Questi accordi arrivano in un momento in cui le preoccupazioni globali riguardo all’uso etico e sicuro dell’intelligenza artificiale sono in aumento. La Biden-Harris administration ha già emesso un ordine esecutivo nel 2023 che richiede valutazioni di sicurezza complete e linee guida per l’uso responsabile dell’IA. Inoltre, OpenAI ha recentemente sostenuto un disegno di legge in California volto a limitare l’uso improprio dei contenuti generati dall’IA.

La collaborazione tra il governo e le aziende di IA non è solo una prima nel suo genere, ma rappresenta anche un passo importante verso la creazione di standard di sicurezza per l’intelligenza artificiale. L’AISI prevede di fornire feedback a Anthropic e OpenAI su potenziali miglioramenti della sicurezza dei loro modelli, collaborando anche con l’AI Safety Institute del Regno Unito per un approccio comune alla valutazione dei sistemi di IA.

Questi accordi segnano un’importante evoluzione nella regolamentazione e nella valutazione della sicurezza dell’intelligenza artificiale, stabilendo un modello per future collaborazioni tra il governo e l’industria.