Kamala Harris, come presunta candidata democratica alla presidenza, è emersa come una figura centrale nel dibattito sulla regolamentazione dell’intelligenza artificiale (AI). La sua forte advocacy per la supervisione governativa dell’AI è vista come uno sviluppo positivo dagli sostenitori della regolamentazione dell’AI, in particolare alla luce delle sue recenti dichiarazioni e azioni.
Harris è stata molto esplicita riguardo ai potenziali rischi associati all’AI, sottolineando che gli impegni volontari delle aziende tecnologiche non sono sufficienti. In un discorso del novembre 2023, ha avvertito che l’AI potrebbe rappresentare minacce esistenziali, inclusa la possibilità di “bioweapon formulate dall’AI” e “cyberattacchi abilitati dall’AI“. Ha sostenuto la necessità di una legislazione completa per garantire la sicurezza dell’AI, affermando: “Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione governativa, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto al benessere dei loro clienti” .
Il suo approccio alla regolamentazione dell’AI è caratterizzato dal desiderio di bilanciare la sicurezza con l’innovazione. Harris ha costantemente respinto la nozione che proteggere il pubblico dai danni dell’AI equivalga a soffocare l’avanzamento tecnologico, etichettando questa idea come una “falsa scelta“. Ha chiesto una definizione più ampia di sicurezza dell’AI che comprenda sia i rischi catastrofici che i danni attuali, evidenziando la necessità di proteggere le popolazioni vulnerabili e le comunità dagli impatti negativi dell’AI.
Nel suo ruolo nell’amministrazione Biden, Harris è stata strumentale nella definizione delle politiche sull’AI. È stata definita la “zar dell’AI”, coordinando gli sforzi per sviluppare quadri per un uso responsabile dell’AI. Questo include la sicurezza di impegni volontari da parte delle principali aziende tecnologiche per aderire a standard di sicurezza e la promozione dell’istituzione di strutture di governance all’interno delle agenzie federali. La sua leadership è stata cruciale nell’avanzare l’ordine esecutivo dell’amministrazione di ottobre 2023 sull’AI, che mira a garantire lo sviluppo sicuro e affidabile delle tecnologie AI.
I legami di Harris con l’industria tecnologica, derivanti dai suoi ruoli precedenti come procuratore generale della California e senatrice, hanno sollevato interrogativi sulla sua capacità di regolamentare efficacemente. Nonostante questi legami, il suo impegno per un rigoroso quadro normativo ha risuonato con una parte significativa dell’elettorato, poiché molti americani di diverse estrazioni politiche sostengono un approccio cauto all’AI.
Il sentimento pubblico sembra sostenere la posizione regolatoria di Harris, con una maggioranza di elettori che favorisce un approccio cauto e controllato allo sviluppo dell’AI. Mentre si candida alla presidenza, la sua chiara articolazione dei rischi dell’AI e la sua agenda proattiva di regolamentazione potrebbero aumentare il suo appeal tra gli elettori preoccupati per le implicazioni di un progresso incontrollato dell’AI.
La potenziale nomina di Kamala Harris come candidata democratica alla presidenza potrebbe segnalare una continua spinta per una rigorosa regolamentazione dell’AI, riflettendo il suo impegno nell’affrontare sia i rischi esistenziali che quelli immediati posti dall’intelligenza artificiale. Il suo approccio potrebbe plasmare il futuro della governance dell’AI negli Stati Uniti, enfatizzando la necessità di una supervisione robusta pur promuovendo l’innovazione.