L’IA presenta significative opportunità, come l’efficienza e l’innovazione economica, ma anche notevoli rischi, tra cui discriminazione algoritmica e decisioni errate. I legislatori stanno cercando di stabilire responsabilità per l’uso sicuro e trasparente dei sistemi di IA, specialmente in contesti decisionali critici come l’occupazione, l’assistenza sanitaria e i servizi finanziari.

Obiettivi Principali

  1. Mitigazione della Discriminazione Algoritmica: Molti legislatori mirano a ridurre il rischio di discriminazione vietando sistemi di IA con rischi discriminatori noti o stabilendo un dovere di diligenza per proteggere gli individui da tali discriminazioni.
  2. Obblighi Specifici: Le normative stabiliscono obblighi specifici per sviluppatori e utilizzatori di IA, riguardanti trasparenza, valutazioni dei rischi e programmi di governance dell’IA.
  3. Diritti dei Consumatori: I diritti comuni includono il diritto all’informativa, alla correzione e alla possibilità di appellarsi o rinunciare a decisioni automatizzate.

Strutture Legislative

La maggior parte delle proposte legislative si concentra su un approccio chiamato “Governance of AI in Consequential Decisions“, che si applica a sistemi di IA ad alto rischio utilizzati in contesti decisionali significativi. Questo approccio mira a garantire equità, trasparenza e responsabilità, affrontando in particolare la discriminazione algoritmica nei settori protetti dalle leggi sui diritti civili.

Esempi di Legislazione

1. Colorado AI Act

Il Colorado AI Act è uno dei primi esempi di legislazione che adotta il framework “Governance of AI in Consequential Decisions”. Questa legge stabilisce requisiti specifici per i sistemi di IA ad alto rischio, inclusi:

  • Definizione di “decisione consequenziale”: Riguarda decisioni che hanno un effetto legale o significativo sulla vita degli individui, come quelle relative all’occupazione, all’istruzione e ai servizi finanziari.
  • Obblighi di trasparenza: I deployer (coloro che utilizzano i sistemi di IA) devono fornire informazioni chiare agli utenti riguardo all’uso dell’IA nelle decisioni.
  • Dovere di diligenza: Sia i sviluppatori che i deployer sono tenuti a utilizzare una “ragionevole diligenza” per prevenire la discriminazione algoritmica.

2. California AB 2930

Questo progetto di legge proposto in California mira a garantire l’equità nell’uso dell’IA e include disposizioni significative come:

  • Divieto di discriminazione algoritmica: Non è consentito l’uso di strumenti decisionali automatizzati se c’è un rischio identificabile di discriminazione.
  • Diritti dei consumatori: Gli individui hanno il diritto di essere informati quando un sistema automatizzato è utilizzato per prendere decisioni che li riguardano e possono richiedere correzioni se le informazioni utilizzate sono errate.

3. New York City Local Law 144

Questa legge si concentra sull’uso dell’IA nei processi decisionali occupazionali. Tra le sue caratteristiche:

  • Audit obbligatori: Le aziende devono condurre audit sui loro sistemi di IA per garantire che non vi siano pregiudizi discriminatori.
  • Trasparenza: Le aziende devono informare i candidati quando l’IA viene utilizzata per prendere decisioni relative all’assunzione.

4. Connecticut SB 2

Questo progetto di legge propone misure simili a quelle del Colorado e della California, con un forte focus sulla protezione dei diritti civili:

  • Obbligo di valutazione del rischio: Le aziende devono condurre valutazioni del rischio per identificare potenziali discriminazioni prima dell’implementazione dei sistemi di IA.
  • Diritti degli individui: Include diritti simili a quelli previsti dalla California AB 2930, come il diritto all’informativa e alla correzione.

5. Maryland SB 818

Questa legge si concentra sull’uso dell’IA nelle decisioni governative, stabilendo requisiti per garantire che le tecnologie utilizzate non violino i diritti civili:

  • Regolamentazione dell’IA governativa: Si applica alle decisioni relative all’accesso ai benefici governativi e alla giustizia penale.

Considerazioni sulle Discriminazioni Algoritmiche

La discriminazione algoritmica è definita come un trattamento differenziale ingiustificato che svantaggia individui o gruppi sulla base di caratteristiche protette[1]. Le proposte legislative più avanzate includono:

  • Divieto di Discriminazione Algoritmica: Alcuni stati propongono divieti assoluti contro l’uso di strumenti decisionali automatizzati che presentano rischi di discriminazione.
  • Dovere di Diligenza: Altri stati stabiliscono un dovere per sviluppatori e utilizzatori di utilizzare “ragionevole diligenza” per proteggere i consumatori dai rischi noti di discriminazione.

Diritti dei Consumatori

Le normative emergenti stabiliscono diritti specifici per gli individui interagenti con sistemi di IA:

  • Diritto all’Informativa: Gli individui devono essere informati quando un sistema automatizzato è utilizzato per prendere decisioni che li riguardano.
  • Diritto alla Correzione: Gli individui hanno il diritto di correggere dati errati utilizzati nei processi decisionali automatizzati.
  • Diritto di Appello: Gli individui possono richiedere una revisione umana delle decisioni avverse generate da sistemi automatizzati.

La crescente integrazione dell’IA nella società richiede una regolamentazione attenta e bilanciata che protegga i diritti degli individui senza soffocare l’innovazione. I legislatori statunitensi stanno affrontando questa sfida con un approccio collaborativo, cercando di stabilire un quadro normativo coerente che promuova la responsabilità e la trasparenza nell’uso dell’IA. Le tendenze legislative indicano una spinta verso una maggiore chiarezza e coerenza nelle definizioni e nei principi, essenziali per garantire la conformità delle imprese e la protezione dei diritti individuali.