Il Dipartimento del Commercio degli Stati Uniti, attraverso il National Institute of Standards and Technology (NIST), ha stabilito una collaborazione con i principali sviluppatori di intelligenza artificiale OpenAI e Anthropic tramite l’U.S. Artificial Intelligence Safety Institute (AISI). Questa partnership mira a migliorare la ricerca e la valutazione della sicurezza dell’AI, segnando un passo significativo nello sviluppo responsabile delle tecnologie AI.
Tag: NIST
Il governo degli Stati Uniti ha recentemente firmato accordi significativi con le aziende di intelligenza artificiale Anthropic e OpenAI, sostenuta da Microsoft. Questi accordi, noti come memorandum d’intesa, sono stati annunciati dall’Artificial Intelligence Safety Institute (AISI), che opera sotto il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti.
Nonostante tutti i suoi vantaggi potenzialmente trasformativi, l’intelligenza artificiale generativa comporta anche rischi significativamente diversi da quelli che vediamo con il software tradizionale. Questi documenti guida non solo informeranno i creatori di software su questi rischi unici, ma li aiuteranno anche a sviluppare modi per mitigare i rischi sostenendo al contempo l’innovazione
Sottosegretario al Commercio per gli standard e la tecnologia e direttore del NIST Laurie E. Locascio
Il Dipartimento del Commercio degli Stati Uniti ha annunciato, dopo 180 giorni dall’Ordine Esecutivo (EO) del Presidente Biden sullo sviluppo sicuro e affidabile dell’IA , diversi nuovi annunci relativi all’EO. Il National Institute of Standards and Technology (NIST) del dipartimento ha pubblicato quattro bozze di pubblicazioni destinate a contribuire a migliorare la sicurezza, la protezione e l’affidabilità dei sistemi di intelligenza artificiale (AI).
l NIST ha inoltre lanciato una serie di sfide che supporteranno lo sviluppo di metodi per distinguere tra contenuti prodotti da esseri umani e contenuti prodotti dall’intelligenza artificiale.
Oltre alle pubblicazioni del NIST, l’Ufficio brevetti e marchi degli Stati Uniti (USPTO) del commercio sta pubblicando una richiesta di commento pubblico (RFC) per chiedere feedback su come l’intelligenza artificiale potrebbe influenzare le valutazioni di come il livello delle competenze ordinarie nelle arti viene effettuato per determinare se un’invenzione è brevettabile ai sensi della legge statunitense e all’inizio di quest’anno ha pubblicato linee guida sulla brevettabilità delle invenzioni assistite dall’intelligenza artificiale.
Le pubblicazioni del NIST coprono vari aspetti della tecnologia dell’intelligenza artificiale:
i primi due sono documenti di orientamento progettati per aiutare a gestire i rischi dell’intelligenza artificiale generativa (la tecnologia che abilita chatbot e strumenti per la creazione di immagini e video basati su testo) e servono come risorse complementari all’AI Risk del NIST. Management Framework (AI RMF) e Secure Software Development Framework (SSDF) , rispettivamente.
Il rapporto del NIST sulla “ Riduzione dei rischi posti dai contenuti sintetici ” fornisce una panoramica degli approcci tecnici alla “trasparenza dei contenuti digitali” o al processo di documentazione e accesso alle informazioni sull’origine e la storia dei contenuti digitali.
Di gran lunga il rapporto più lungo, adotta un approccio su quattro fronti per gestire e ridurre i rischi dei contenuti sintetici, tra cui:
- Attestare che un particolare sistema ha prodotto un contenuto
- Affermazione della proprietà dei contenuti
- Fornire strumenti per etichettare e identificare i contenuti generati dall’intelligenza artificiale
- Mitigare la produzione e la diffusione di materiale pedopornografico (CSAM) e di immagini intime non consensuali (NCII) generate dall’intelligenza artificiale di individui reali.
il quarto propone Il “ Piano per l’impegno globale sugli standard di intelligenza artificiale ” richiede uno sforzo coordinato per collaborare con i principali alleati e partner internazionali e con le organizzazioni che sviluppano standard per creare e implementare standard di consenso relativi all’intelligenza artificiale. Il Piano spiega che gli standard sono cruciali sia nello sviluppo che nell’adozione di tecnologie nuove ed emergenti, in particolare nel campo dell’intelligenza artificiale, dove gli attori internazionali guardano all’ecosistema degli standard come guida. Il NIST ritiene che il suo ruolo, almeno in questa fase, sia quello di affrontare le attività prima, durante e dopo la creazione di uno standard formale.
Tecnologia dell’informazione , intelligenza artificiale , misurazione e valutazione dell’intelligenza artificiale e intelligenza artificiale affidabile e responsabile