Con l’avvicinarsi della scadenza per la richiesta di informazioni sul Piano d’azione per l’intelligenza artificiale, le voci di alcune delle aziende più influenti nel settore della tecnologia, tra cui Google, Anthropic, OpenAI, e altri, hanno sollevato una serie di richieste che potrebbero modellare il futuro dell’IA in modo significativo. Le posizioni di queste aziende variano, ma tutte mostrano un chiaro desiderio di influenzare le politiche pubbliche in modo favorevole alle proprie operazioni e visioni a lungo termine. L’elemento comune tra tutte queste proposte è l’ansia di evitare regolamenti eccessivi che potrebbero rallentare l’innovazione e compromettere la competitività globale.

Le richieste di Anthropic sono abbastanza chiare, e non sorprendenti per chi conosce la posizione cauta dell’azienda sul tema della sicurezza dell’intelligenza artificiale. Secondo Anthropic, i sistemi di IA di prossima generazione, quelli che si prevede emergeranno entro il 2026 o il 2027, avranno capacità intellettuali pari o superiori a quelle dei vincitori del premio Nobel in molte discipline e saranno in grado di ragionare in modo autonomo su compiti complessi. Per questo motivo, l’azienda sostiene che il governo federale debba sviluppare una capacità solida di monitoraggio, capace di valutare rapidamente i rischi e gli abusi potenziali per la sicurezza nazionale.

Anthropic propone misure che sembrano essere in linea con la volontà di un maggiore controllo governativo sulle risorse tecnologiche strategiche. Chiede restrizioni rigorose sulle esportazioni di modelli di IA avanzati e una collaborazione più stretta tra il governo e i leader del settore per migliorare la sicurezza nei laboratori di IA. Insomma, pur riconoscendo i benefici dell’innovazione, sembra che l’azienda veda la regolazione come uno strumento necessario per gestire i rischi potenzialmente catastrofici.

Google, pur presentando una posizione più sfumata, si discosta parzialmente da quella di Anthropic. Sebbene riconosca i rischi associati alle IA avanzate, sostiene che per troppo tempo le politiche abbiano focalizzato l’attenzione su di essi, trascurando gli effetti economici e innovativi negativi che potrebbero derivare da una regolamentazione troppo rigida. Secondo Google, la regolazione dovrebbe concentrarsi su applicazioni specifiche e non essere troppo invasiva, affinché l’innovazione possa prosperare. L’azienda propone l’adozione di standard tecnici e protocolli di sicurezza guidati dal mercato, nonché la promozione di una collaborazione internazionale per evitare che altre giurisdizioni adottino normative che frenino lo sviluppo tecnologico, come accade in Europa. Le dichiarazioni suggeriscono una chiara preferenza per soluzioni più volontarie, con un forte accento sulla competitività americana.

Tuttavia, la proposta di OpenAI è probabilmente quella che solleva più preoccupazioni. L’azienda, piuttosto che enfatizzare i rischi, si concentra prevalentemente sulle opportunità, evitando di affrontare in modo serio le implicazioni per la sicurezza. Il tono del documento di OpenAI, scritto da Chris Lehane, sembra quasi una reazione di frustrazione nei confronti della burocrazia statale e delle normative emergenti. OpenAI chiede che le aziende abbiano “protezione dalla responsabilità”, in cambio della loro disponibilità a collaborare con il governo federale sui rischi legati alla sicurezza nazionale. Sebbene promuova una cooperazione “volontaria”, l’azienda sembra non voler accettare l’idea di test e valutazioni obbligatorie, suggerendo che il governo debba piuttosto fornire informazioni classificate sulle minacce alla sicurezza nazionale per permettere alle aziende di proteggere i propri modelli di IA.

In questo contesto, la posizione di OpenAI sembra quella di evitare ogni tipo di intervento normativo obbligatorio, minimizzando l’influenza del governo sulla gestione dei rischi legati alla propria tecnologia. Questo approccio, tuttavia, non è esente da critiche: se da un lato può sembrare un tentativo di evitare eccessive interferenze governative, dall’altro potrebbe lasciare spazio a rischi non controllati, sia a livello nazionale che internazionale. Inoltre, l’insistenza su un sistema di “sandbox” e la creazione di percorsi alternativi per stipulare contratti con il governo sembrano suggerire un tentativo di ottenere vantaggi fiscali e regolatori, a discapito di una gestione trasparente e sicura dell’IA.

Inoltre, la discussione su come gestire i controlli sulle esportazioni di tecnologie sensibili rimane centrale. Mentre Anthropic e Google suggeriscono restrizioni selettive, OpenAI si oppone fermamente a misure che potrebbero minare la competitività, in particolare quelle che riguardano la diffusione delle capacità di IA tra diversi paesi. OpenAI solleva anche preoccupazioni sullo stato delle normative internazionali, suggerendo che le politiche di regolamentazione adottate in paesi come la Cina e l’UE potrebbero danneggiare le imprese tecnologiche americane, rallentando l’innovazione e la competitività.

Tuttavia, l’approccio di OpenAI sembra avere un lato ambiguo. Le richieste di “responsabilità” e “protezione dalla responsabilità” suonano più come un tentativo di distanziarsi dalle normative troppo stringenti piuttosto che una vera proposta di governance responsabile dell’IA. L’atteggiamento di Lehane e del team di OpenAI sembra quasi quello di un “passo indietro” rispetto alle promesse fatte anni fa riguardo ai pericoli di un’intelligenza artificiale incontrollata.

Tuttavia, se dovessi cercare di interpretare il quadro complessivo, una cosa è chiara: il settore dell’intelligenza artificiale sta cercando di navigare in un panorama legislativo incerto, con un occhio ai rischi e l’altro alla competitività globale. Mentre alcuni chiedono regolamenti che vadano a tutelare la sicurezza nazionale, altri sembrano preoccupati più della libertà di innovazione che dell’integrità dei sistemi stessi. La realtà, come sempre, sta nel mezzo, e trovare un equilibrio tra regolazione e crescita sarà una delle sfide più difficili per le amministrazioni future, soprattutto con un governo come quello di Trump, che storicamente ha dimostrato un atteggiamento più favorevole all’auto-regolamentazione del settore tecnologico.

Aspettiamo con ANSIA le richieste di META.