Con l’avvicinarsi della scadenza per la richiesta di informazioni sul Piano d’azione per l’intelligenza artificiale, le voci di alcune delle aziende più influenti nel settore della tecnologia, tra cui Google, Anthropic, OpenAI, e altri, hanno sollevato una serie di richieste che potrebbero modellare il futuro dell’IA in modo significativo. Le posizioni di queste aziende variano, ma tutte mostrano un chiaro desiderio di influenzare le politiche pubbliche in modo favorevole alle proprie operazioni e visioni a lungo termine. L’elemento comune tra tutte queste proposte è l’ansia di evitare regolamenti eccessivi che potrebbero rallentare l’innovazione e compromettere la competitività globale.
Le richieste di Anthropic sono abbastanza chiare, e non sorprendenti per chi conosce la posizione cauta dell’azienda sul tema della sicurezza dell’intelligenza artificiale. Secondo Anthropic, i sistemi di IA di prossima generazione, quelli che si prevede emergeranno entro il 2026 o il 2027, avranno capacità intellettuali pari o superiori a quelle dei vincitori del premio Nobel in molte discipline e saranno in grado di ragionare in modo autonomo su compiti complessi. Per questo motivo, l’azienda sostiene che il governo federale debba sviluppare una capacità solida di monitoraggio, capace di valutare rapidamente i rischi e gli abusi potenziali per la sicurezza nazionale.