Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: AISI

USA – Scale AI: Pioniere nella valutazione dei modelli di Intelligenza Artificiale per l’AISI

Notizie dagli USA.

La recente nomina di Scale AI come primo valutatore terzo autorizzato dall’Istituto per la Sicurezza dell’Intelligenza Artificiale degli Stati Uniti (AISI) rappresenta un passo significativo verso una maggiore sicurezza e affidabilità nello sviluppo dei modelli di intelligenza artificiale.

Questa collaborazione mira a sviluppare metodi avanzati per testare i modelli di frontiera dell’IA, includendo valutazioni congiunte tra l’AISI e il Safety, Evaluation, and Alignment Lab (SEAL) di Scale AI. Attraverso questi metodi, i costruttori di modelli di diverse dimensioni potranno accedere volontariamente a nuove forme di test affidabili, con la possibilità di condividere i risultati con una rete globale di istituti di sicurezza dell’IA.

Questa partnership non solo rafforza la posizione di Scale AI nel panorama dell’IA, ma suggerisce anche una visione ottimistica per il futuro dell’AISI. È improbabile che Scale AI avrebbe intrapreso questo accordo se ci fossero stati dubbi sulla stabilità o sulla continuazione dell’istituto, indipendentemente dalle dinamiche politiche attuali o future.

AI Security Institute: La Nuova Frontiera della Sicurezza Nazionale nel Regno UnitoAISI,

Il governo del Regno Unito ha annunciato un’importante trasformazione: l’AI Safety Institute (AISI) cambia nome e diventa l’AI Security Institute. Questo cambiamento non è solo una questione di rebranding, ma riflette un mutamento strategico nella gestione dei rischi associati all’intelligenza artificiale.

La nuova denominazione mette in evidenza un focus su rischi seri con implicazioni per la sicurezza nazionale, come l’utilizzo dell’IA per sviluppare armi chimiche e biologiche, per compiere cyber-attacchi e per agevolare crimini come le frodi e gli abusi sessuali su minori. La missione dell’Istituto si concentra esclusivamente sui rischi più gravi legati alla tecnologia, escludendo intenzionalmente temi come i bias algoritmici o la libertà di parola. L’obiettivo dichiarato è quello di costruire una base scientifica solida che aiuti i decisori politici a proteggere il Paese mentre l’IA continua a evolversi.

La Governance dell’Intelligenza Artificiale negli Stati Uniti: Implicazioni di un Nuovo Ordine Esecutivo

La discussione sulla governance dell’intelligenza artificiale negli Stati Uniti è stata recentemente intensificata, con un focus particolare sull’ordine esecutivo (EO) emesso sotto l’amministrazione Biden e le sue implicazioni per enti chiave come il National Institute of Standards and Technology (NIST) e l’AI Safety Institute (AISI). In una riflessione precedente, avevo sottolineato che gran parte di questa governance si fonda sull’EO, incluso l’AISI, ma alcuni lettori hanno prontamente fatto notare che l’AISI non è effettivamente menzionato nell’EO. Questo spunto di riflessione merita una correzione e una comprensione più approfondita, specialmente alla luce di alcune nuove informazioni emerse recentemente.

OpenAI , Anthropic siglano regole con il governo USA per consentire test e valutazioni dei modelli di intelligenza artificiale

Il governo degli Stati Uniti ha recentemente firmato accordi significativi con le aziende di intelligenza artificiale Anthropic e OpenAI, sostenuta da Microsoft. Questi accordi, noti come memorandum d’intesa, sono stati annunciati dall’Artificial Intelligence Safety Institute (AISI), che opera sotto il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie