Negli ultimi anni, il dibattito sull’intelligenza artificiale (IA) ha guadagnato una crescente attenzione, specialmente con l’emergere della superintelligenza artificiale (ASI). Secondo Sam Altman, CEO di OpenAI, l’ASI potrebbe essere realizzata in “poche migliaia di giorni”, un periodo sorprendentemente breve considerando il rapido progresso tecnologico. Questo sviluppo pone interrogativi cruciali sulla sicurezza nazionale e sull’interesse pubblico, specialmente in un contesto in cui le agenzie governative si trovano ad affrontare sfide senza precedenti.
Dal lancio di GPT-1 nel 2018, le capacità delle macchine di “pensare” sono aumentate esponenzialmente. Questo progresso ha portato a una compressione temporale significativa per le istituzioni umane, che devono ora affrontare cambiamenti rapidi e complessi. Le agenzie governative, come il Dipartimento della Difesa (DOD) e il Dipartimento della Sicurezza Interna (DHS), hanno la responsabilità di evolvere e adattarsi a queste nuove tecnologie per garantire la sicurezza nazionale.
Le agenzie federali sono state create per proteggere l’interesse pubblico e la sicurezza nazionale. Tuttavia, recenti decisioni della Corte Suprema degli Stati Uniti hanno limitato la loro capacità di agire efficacemente. Queste decisioni sollevano preoccupazioni sulla loro autorità di regolamentazione in un’epoca in cui l’IA presenta rischi significativi.
Due importanti sentenze hanno avuto un impatto diretto sulla capacità delle agenzie di rispondere alle sfide poste dall’IA:
West Virginia contro EPA (2022): Questa decisione ha stabilito la “Major Questions Doctrine”, limitando l’autorità delle agenzie federali a trattare questioni di grande importanza economica e politica senza una chiara autorizzazione del Congresso.
Loper Bright Enterprises contro Raimondo (2024): Questa sentenza ha ribaltato la Chevron Deference Doctrine, che garantiva alle agenzie esperte il beneficio del dubbio nelle loro interpretazioni legislative. La Corte ha affermato che i tribunali devono esercitare un giudizio indipendente su tali questioni, riducendo ulteriormente l’autorità delle agenzie.
Queste decisioni non solo limitano la capacità delle agenzie di affrontare questioni relative all’IA, ma trasferiscono anche il potere decisionale a entità private e aziende tecnologiche, creando un vuoto normativo preoccupante.
Il 28 giugno 2024, la Corte Suprema degli Stati Uniti ha emesso una sentenza storica nel caso Loper Bright Enterprises contro Raimondo, ribaltando la dottrina di deferenza Chevron, in vigore dal 1984. Questa dottrina stabiliva che i tribunali dovessero deferire alle interpretazioni delle agenzie governative quando le leggi erano ambigue, permettendo così a queste agenzie di avere un ampio margine di manovra nell’interpretazione delle normative.
La decisione del 1984, Chevron USA contro Natural Resources Defense Council, Inc., stabiliva un test in due fasi per determinare quando i tribunali dovessero deferire alle interpretazioni delle agenzie. Se una legge era vaga o silenziosa su un punto specifico, i tribunali dovevano accettare l’interpretazione dell’agenzia, a meno che non fosse ritenuta “arbitraria o capricciosa”. Tuttavia, la nuova sentenza ha dichiarato che i tribunali devono esercitare il proprio giudizio indipendente per valutare se un’agenzia ha agito entro i limiti della sua autorità statutaria.
La sentenza Loper Bright si è concentrata su un regolamento del National Marine Fisheries Service, che richiedeva ai proprietari di pescherecci di coprire i costi degli ispettori che raccoglievano dati sulla pesca. Sia il tribunale distrettuale che la corte d’appello avevano inizialmente confermato la legalità di tale regolamento basandosi sulla dottrina Chevron. Tuttavia, la Corte Suprema ha ribaltato queste decisioni, affermando che i tribunali devono ora esercitare un giudizio più rigoroso sulle azioni delle agenzie.
La decisione ha suscitato reazioni contrastanti. Da un lato, i conservatori hanno accolto con favore la sentenza come una vittoria significativa nella loro lunga battaglia per limitare l’autorità delle agenzie federali e ridurre il potere dell'”amministrazione statale”. Dall’altro lato, i giudici liberali, come Elena Kagan, hanno espresso preoccupazione per l’aumento del potere della Corte Suprema a scapito delle agenzie esperte e della capacità del Congresso di delegare autorità .
Ciò che è ancora “più spaventoso” è che la Corte si è affermata come esperta di IA. “Siamo una corte, non sappiamo davvero niente di queste cose”, ha osservato il giudice Kagan durante la discussione orale su un caso separato relativo a Internet, “Non siamo, tipo, i nove più grandi esperti di Internet”.
Kagan ha descritto la decisione come un esempio di “hubris giudiziaria”, sostenendo che la Corte si stia arrogando poteri che dovrebbero spettare alle agenzie competenti e al Congresso, specialmente in questioni complesse come il cambiamento climatico. Le implicazioni di questa sentenza potrebbero estendersi a vari ambiti, inclusi quelli della salute pubblica e della protezione ambientale, dove le agenzie federali hanno tradizionalmente avuto un ruolo cruciale nel regolamentare le pratiche industriali e proteggere il benessere pubblico.
La mancanza di regolamentazione efficace potrebbe avere conseguenze devastanti. Le aziende che sviluppano tecnologie IA potrebbero operare senza un adeguato controllo pubblico, aumentando il rischio di danni all’interesse pubblico e alla sicurezza nazionale. Come evidenziato dalla giudice Elena Kagan, questa situazione è allarmante poiché la Corte Suprema non possiede le competenze necessarie per affrontare questioni complesse come quelle legate all’IA.
È essenziale che il Congresso intervenga per stabilire un quadro normativo chiaro e robusto per l’IA. Tuttavia, la difficoltà nel raggiungere un consenso su questioni così complesse rende questa prospettiva problematica. L’ordine esecutivo firmato dal presidente Biden nel 2023 ha sottolineato la necessità di un intervento legislativo, ma senza azioni concrete da parte del Congresso, le prospettive rimangono incerte.
riflettuto : “Abbiamo ancora bisogno che il Congresso agisca”. Aspettarsi un’azione così complessa da un Congresso che non è in grado di approvare un bilancio federale, tuttavia, sembra problematico.
In un’epoca caratterizzata da cambiamenti tecnologici rapidi e potenzialmente destabilizzanti, è fondamentale non tirarsi indietro dalla regolamentazione dell’IA. Le agenzie governative devono essere dotate degli strumenti necessari per affrontare queste sfide in modo efficace. Solo attraverso una governance informata e competente si potrà garantire che i benefici dell’intelligenza artificiale non vengano compromessi da rischi non controllati.