Notizie dagli USA.

La recente nomina di Scale AI come primo valutatore terzo autorizzato dall’Istituto per la Sicurezza dell’Intelligenza Artificiale degli Stati Uniti (AISI) rappresenta un passo significativo verso una maggiore sicurezza e affidabilità nello sviluppo dei modelli di intelligenza artificiale.

Questa collaborazione mira a sviluppare metodi avanzati per testare i modelli di frontiera dell’IA, includendo valutazioni congiunte tra l’AISI e il Safety, Evaluation, and Alignment Lab (SEAL) di Scale AI. Attraverso questi metodi, i costruttori di modelli di diverse dimensioni potranno accedere volontariamente a nuove forme di test affidabili, con la possibilità di condividere i risultati con una rete globale di istituti di sicurezza dell’IA.

Questa partnership non solo rafforza la posizione di Scale AI nel panorama dell’IA, ma suggerisce anche una visione ottimistica per il futuro dell’AISI. È improbabile che Scale AI avrebbe intrapreso questo accordo se ci fossero stati dubbi sulla stabilità o sulla continuazione dell’istituto, indipendentemente dalle dinamiche politiche attuali o future.

Parallelamente, il deputato Jay Obernolte ha proposto l’istituzione di un comitato ristretto per l’intelligenza artificiale, sottolineando l’importanza di un approccio equilibrato nel dibattito tra modelli open source e closed source. Ha evidenziato che, sebbene entrambe le parti del dibattito abbiano validi argomenti, al momento non esistono rischi sufficienti per i regolatori per favorire un modello rispetto all’altro. Tuttavia, ha espresso preoccupazioni riguardo ai potenziali rischi esistenziali associati all’IA, come la possibilità che un modello linguistico avanzato possa essere utilizzato per progettare armi biologiche o condurre attività di hacking che minacciano la sicurezza nazionale.

Inoltre, il senatore Todd Young ha proposto un “manuale” tecnologico in 10 punti per il secondo mandato dell’amministrazione Trump, suggerendo che la nuova amministrazione dovrebbe incoraggiare sforzi mirati per abbinare l’intelligenza artificiale americana al capitale straniero, al fine di portare soluzioni di IA affidabili ai paesi in via di sviluppo.

Questi sviluppi indicano un crescente riconoscimento dell’importanza della sicurezza nell’IA e della necessità di strutture di valutazione solide. La collaborazione tra Scale AI e l’AISI rappresenta un modello di come il settore privato e le istituzioni governative possano lavorare insieme per garantire che l’IA sia sviluppata e implementata in modo sicuro e responsabile.