L’IA presenta significative opportunità, come l’efficienza e l’innovazione economica, ma anche notevoli rischi, tra cui discriminazione algoritmica e decisioni errate. I legislatori stanno cercando di stabilire responsabilità per l’uso sicuro e trasparente dei sistemi di IA, specialmente in contesti decisionali critici come l’occupazione, l’assistenza sanitaria e i servizi finanziari.
Obiettivi Principali
- Mitigazione della Discriminazione Algoritmica: Molti legislatori mirano a ridurre il rischio di discriminazione vietando sistemi di IA con rischi discriminatori noti o stabilendo un dovere di diligenza per proteggere gli individui da tali discriminazioni.
- Obblighi Specifici: Le normative stabiliscono obblighi specifici per sviluppatori e utilizzatori di IA, riguardanti trasparenza, valutazioni dei rischi e programmi di governance dell’IA.
- Diritti dei Consumatori: I diritti comuni includono il diritto all’informativa, alla correzione e alla possibilità di appellarsi o rinunciare a decisioni automatizzate.
Strutture Legislative
La maggior parte delle proposte legislative si concentra su un approccio chiamato “Governance of AI in Consequential Decisions“, che si applica a sistemi di IA ad alto rischio utilizzati in contesti decisionali significativi. Questo approccio mira a garantire equità, trasparenza e responsabilità, affrontando in particolare la discriminazione algoritmica nei settori protetti dalle leggi sui diritti civili.
Esempi di Legislazione
1. Colorado AI Act
Il Colorado AI Act è uno dei primi esempi di legislazione che adotta il framework “Governance of AI in Consequential Decisions”. Questa legge stabilisce requisiti specifici per i sistemi di IA ad alto rischio, inclusi:
- Definizione di “decisione consequenziale”: Riguarda decisioni che hanno un effetto legale o significativo sulla vita degli individui, come quelle relative all’occupazione, all’istruzione e ai servizi finanziari.
- Obblighi di trasparenza: I deployer (coloro che utilizzano i sistemi di IA) devono fornire informazioni chiare agli utenti riguardo all’uso dell’IA nelle decisioni.
- Dovere di diligenza: Sia i sviluppatori che i deployer sono tenuti a utilizzare una “ragionevole diligenza” per prevenire la discriminazione algoritmica.
2. California AB 2930
Questo progetto di legge proposto in California mira a garantire l’equità nell’uso dell’IA e include disposizioni significative come:
- Divieto di discriminazione algoritmica: Non è consentito l’uso di strumenti decisionali automatizzati se c’è un rischio identificabile di discriminazione.
- Diritti dei consumatori: Gli individui hanno il diritto di essere informati quando un sistema automatizzato è utilizzato per prendere decisioni che li riguardano e possono richiedere correzioni se le informazioni utilizzate sono errate.
3. New York City Local Law 144
Questa legge si concentra sull’uso dell’IA nei processi decisionali occupazionali. Tra le sue caratteristiche:
- Audit obbligatori: Le aziende devono condurre audit sui loro sistemi di IA per garantire che non vi siano pregiudizi discriminatori.
- Trasparenza: Le aziende devono informare i candidati quando l’IA viene utilizzata per prendere decisioni relative all’assunzione.
4. Connecticut SB 2
Questo progetto di legge propone misure simili a quelle del Colorado e della California, con un forte focus sulla protezione dei diritti civili:
- Obbligo di valutazione del rischio: Le aziende devono condurre valutazioni del rischio per identificare potenziali discriminazioni prima dell’implementazione dei sistemi di IA.
- Diritti degli individui: Include diritti simili a quelli previsti dalla California AB 2930, come il diritto all’informativa e alla correzione.
5. Maryland SB 818
Questa legge si concentra sull’uso dell’IA nelle decisioni governative, stabilendo requisiti per garantire che le tecnologie utilizzate non violino i diritti civili:
- Regolamentazione dell’IA governativa: Si applica alle decisioni relative all’accesso ai benefici governativi e alla giustizia penale.
Considerazioni sulle Discriminazioni Algoritmiche
La discriminazione algoritmica è definita come un trattamento differenziale ingiustificato che svantaggia individui o gruppi sulla base di caratteristiche protette[1]. Le proposte legislative più avanzate includono:
- Divieto di Discriminazione Algoritmica: Alcuni stati propongono divieti assoluti contro l’uso di strumenti decisionali automatizzati che presentano rischi di discriminazione.
- Dovere di Diligenza: Altri stati stabiliscono un dovere per sviluppatori e utilizzatori di utilizzare “ragionevole diligenza” per proteggere i consumatori dai rischi noti di discriminazione.
Diritti dei Consumatori
Le normative emergenti stabiliscono diritti specifici per gli individui interagenti con sistemi di IA:
- Diritto all’Informativa: Gli individui devono essere informati quando un sistema automatizzato è utilizzato per prendere decisioni che li riguardano.
- Diritto alla Correzione: Gli individui hanno il diritto di correggere dati errati utilizzati nei processi decisionali automatizzati.
- Diritto di Appello: Gli individui possono richiedere una revisione umana delle decisioni avverse generate da sistemi automatizzati.
La crescente integrazione dell’IA nella società richiede una regolamentazione attenta e bilanciata che protegga i diritti degli individui senza soffocare l’innovazione. I legislatori statunitensi stanno affrontando questa sfida con un approccio collaborativo, cercando di stabilire un quadro normativo coerente che promuova la responsabilità e la trasparenza nell’uso dell’IA. Le tendenze legislative indicano una spinta verso una maggiore chiarezza e coerenza nelle definizioni e nei principi, essenziali per garantire la conformità delle imprese e la protezione dei diritti individuali.