Gli analisti di Jefferies hanno stilato 10 politiche attuabili e le relative implicazioni azionarie nel caso in cui Kamala Harris vincesse il seggio presidenziale questo novembre.
Aniket Shah, responsabile della strategia di sostenibilità e transizione, ha affermato che il suo team ha utilizzato le idee della piattaforma democratica del 2024 e le recenti dichiarazioni di Harris per delineare 10 proposte attuabili che richiedono un’azione legislativa minima.
Ascolta il podcast :
Kamala Harris ha recentemente annunciato la creazione dell’United States AI Safety Institute durante il Global Summit on AI Safety tenutosi a Londra.
Questo istituto, parte del National Institute of Standards and Technology (NIST), avrà il compito di sviluppare linee guida tecniche per affrontare i rischi associati all’intelligenza artificiale, inclusi la discriminazione algoritmica e l’autenticazione dei contenuti generati da esseri umani. L’obiettivo è garantire che l’innovazione tecnologica avvenga in modo sicuro e responsabile, proteggendo i diritti e la sicurezza pubblica.
Obiettivi dell’AI Safety Institute
- Sviluppo di Linee Guida : Creazione di strumenti e pratiche per valutare e mitigare i rischi dell’IA.
- Collaborazione Internazionale : L’istituto collaborerà con altre istituzioni, inclusa l’AI Safety Institute del Regno Unito, per condividere informazioni e ricerche.
- Focus sulla Trasparenza : Saranno implementati metodi per garantire trasparenza e ridurre i bias nei sistemi di IA.
Harris ha anche sottolineato l’importanza di affrontare non solo le minacce esistenziali legate all’IA, ma anche i problemi immediati che possono influenzare la democrazia e la privacy. Ha esortato a un’azione collettiva per garantire che l’IA sia utilizzata in modo che avvantaggi la società nel suo complesso, piuttosto che danneggiarla.
Prossimi passi per l’AI Safety Institute negli Stati Uniti, Un Ponte tra USA e Europa attraverso il Regno Unito.
il Regno Unito non è obbligato a rispettare l’AI Act dell’UE poiché non ne fa più parte dopo la Brexit. Il Regno Unito sta rafforzando la sua alleanza con l’ AI Safety Institute degli Stati Uniti aprendo un ufficio a San Francisco. Questa mossa è parte di un’iniziativa più ampia per migliorare la cooperazione internazionale nella regolamentazione dell’intelligenza artificiale (IA).
Se il Regno Unito e gli Stati Uniti stabilizzano normative più flessibili o innovative rispetto all’AI Act dell’UE, potrebbero attrarre talenti e investimenti, creando una competizione per le aziende tecnologiche.
Dopo il lancio dell’AI Safety Institute negli Stati Uniti nel 2023, ecco alcuni dei prossimi passi chiave per l’istituto:
Collaborazione con il Regno Unito
- Gli Stati Uniti e il Regno Unito hanno firmato un memorandum of understanding il 1° aprile 2024 per collaborare nello sviluppo di test per modelli di IA avanzati al fine di migliorarne la sicurezza.
- I due istituti di sicurezza dell’IA dei rispettivi paesi lavoreranno insieme per condividere informazioni sui rischi dei modelli di IA e sviluppare approcci metodologici per affrontarli.
- È previsto almeno un esercizio di test congiunto su un modello di IA accessibile al pubblico.
Sviluppo di linee guida e standard
- L’istituto lavorerà allo sviluppo di linee guida tecniche per affrontare i rischi come la discriminazione algoritmica e l’autenticazione dei contenuti generati dall’IA.
- Saranno implementati metodi per garantire trasparenza e ridurre i bias nei sistemi di IA.
- Si prevede che nei prossimi 12 mesi, con l’adempimento dei mandati dell’ordine esecutivo sulla sicurezza dell’IA, verranno introdotti nuovi requisiti normativi.
Valutazione dei rischi e test di sicurezza
- Le agenzie federali dovranno nominare un “Chief AI” per coordinare l’uso dell’IA, promuovere l’innovazione e gestire i rischi.
- Se un’agenzia non può applicare adeguate misure di sicurezza per l’IA, dovrà cessarne l’uso a meno che non sollevi questioni di sicurezza nazionale.
- L’istituto eseguirà test di sicurezza su modelli di IA avanzati per identificare e mitigare i rischi, colmando le lacune nei metodi di valutazione esistenti.
Attraverso queste iniziative, l’ AI Safety Institute mira a garantire che l’innovazione nell’IA avvenga in modo sicuro e responsabile, proteggendo i diritti e la sicurezza pubblica negli Stati Uniti.