Con 85 voti favorevoli, 42 contrari e nessuna astensione, il Senato ha approvato il Disegno di Legge 1146 sull’Intelligenza Artificiale (IA). Un testo mastodontico di oltre 1.400 pagine che, sulla carta, dovrebbe fornire regole chiare per l’utilizzo dell’IA nei settori più critici: sanità, lavoro, giustizia, sicurezza e media. In teoria, l’obiettivo è nobile: dare un senso di ordine e trasparenza all’uso degli algoritmi, limitare gli abusi e garantire ai cittadini la possibilità di sapere se e quando stanno interagendo con un’intelligenza artificiale. In pratica, però, si tratta di capire se questa legge sarà davvero in grado di incasellare una tecnologia che cambia più velocemente di quanto il legislatore riesca a scrivere.
L’intelligenza artificiale è un fenomeno in continua evoluzione e qualsiasi regolamento rischia di nascere già obsoleto. Ma il governo italiano sembra aver deciso di provarci comunque, ispirandosi in parte all’AI Act europeo, già approvato lo scorso marzo. Peccato che l’approccio italiano sia ancora più vago e burocratico, con una serie di linee guida che somigliano più a buone intenzioni che a regole effettivamente applicabili.
Il DDL 1146 introduce una “mappa” che dovrebbe guidare il Paese nella transizione digitale, ma la strada appare più che altro disseminata di cartelli confusi e di un numero indefinito di zone grigie. Si parla di trasparenza, di diritti e di sicurezza, ma con una marea di condizionali e rimandi a futuri regolamenti attuativi. Il che, tradotto, significa che molte delle decisioni più importanti sono rinviate a data da destinarsi.
Uno degli ambiti più sensibili è quello sanitario. Qui il disegno di legge chiarisce almeno tre punti fondamentali:
- L’IA non potrà essere utilizzata per filtrare l’accesso alle cure, evitando scenari da distopia in stile “Black Mirror” in cui gli algoritmi decidono chi è degno di ricevere assistenza e chi no. In altre parole, niente “social credit score” applicato alla salute.
- Le decisioni cliniche resteranno nelle mani del personale sanitario. Se un medico si affida ciecamente a un software per una diagnosi e sbaglia, la colpa sarà sua. Questo implica che l’IA sarà usata come supporto, ma non come giudice supremo delle nostre cartelle cliniche.
- Il paziente dovrà sempre sapere se e come l’IA è stata impiegata nella sua diagnosi o nel suo trattamento. Un dettaglio che potrebbe diventare problematico, visto che la maggior parte delle persone non sa nemmeno come funzionano i farmaci che assume, figuriamoci un modello di deep learning.
Nonostante le rassicurazioni, resta il dubbio che, alla lunga, la sanità pubblica finisca per affidarsi sempre più agli algoritmi per ottimizzare le risorse, magari spingendo i pazienti verso trattamenti “più convenienti” piuttosto che quelli più efficaci.
Un altro punto interessante riguarda la Strategia Nazionale per l’Intelligenza Artificiale, un piano che dovrà essere aggiornato ogni due anni e che prevede l’adozione dell’IA anche nella pubblica amministrazione. Qui si aprono scenari piuttosto inquietanti. Se l’intento è quello di migliorare la macchina burocratica, il rischio è che l’IA venga usata per automatizzare processi già farraginosi, con il risultato di moltiplicare le inefficienze anziché risolverle.
Immaginate un algoritmo che valuta le domande per il reddito di cittadinanza, le richieste di cittadinanza o i permessi edilizi. Se funzionasse bene, potremmo finalmente dire addio alle code agli sportelli. Se invece si rivelasse un disastro, avremmo un mostro burocratico automatizzato in cui nessuno sa più chi ha davvero preso una decisione.
Per garantire che tutto fili liscio, il governo ha pensato bene di istituire un’Autorità nazionale per l’IA. Questa entità avrà il compito di supervisionare l’implementazione delle norme, verificare la trasparenza degli algoritmi e, in teoria, punire chi ne fa un uso scorretto. Ma chi controllerà i controllori? E soprattutto, avrà davvero i mezzi per far rispettare la legge?
La storia insegna che le autorità di vigilanza italiane spesso funzionano sulla carta, ma nella pratica si rivelano lenti burocratici con poco potere effettivo. Senza fondi adeguati, competenze tecniche reali e una volontà politica forte, questa Autorità rischia di essere solo un altro ente inutile che si limita a sfornare raccomandazioni e linee guida prive di efficacia.
Il DDL prevede anche un regime sanzionatorio per chi utilizza l’IA in modo scorretto. Si parla di multe e persino di responsabilità penali, soprattutto per le aziende che dovessero violare i principi di trasparenza e tutela dei dati personali. Ma chi avrà davvero il coraggio di applicare queste norme?
Le grandi aziende tecnologiche hanno già dimostrato di avere margini di manovra enormi, e difficilmente si lasceranno intimidire da regolamenti nazionali, soprattutto se questi non saranno allineati con le politiche europee. Senza un coordinamento internazionale solido, il rischio è che queste sanzioni rimangano solo sulla carta, mentre le aziende continueranno a sviluppare e distribuire software come meglio credono.
L’intelligenza artificiale sta trasformando il mondo a una velocità impressionante, e il tentativo di regolamentarla è più che comprensibile. Tuttavia, il DDL 1146 sembra più un esercizio burocratico che una vera risposta ai problemi posti da questa tecnologia. Troppe incognite, troppi rinvii a regolamenti futuri e troppe aree grigie.
Senza una strategia chiara e strumenti efficaci di controllo, l’IA rischia di sfuggire di mano, trasformandosi in un far west digitale dove le decisioni chiave vengono prese da algoritmi opachi e difficili da contestare. Il vero problema, alla fine, è che la politica è sempre in ritardo rispetto alla tecnologia. E in un mondo dove l’IA evolve alla velocità della luce, leggi scritte con la logica della burocrazia italiana rischiano di essere già vecchie prima ancora di entrare in vigore.