È ufficiale: la Commissione Europea ha pubblicato la terza bozza del Codice di condotta per i modelli di intelligenza artificiale (IA) di uso generale. Una versione più evoluta rispetto alle precedenti, che promette di semplificare e adattare le linee guida per il settore in modo meno prescrittivo, ma senza eliminare le problematiche che, già dalle prime reazioni, sembrano non essere del tutto risolte. Un documento che ha scatenato opinioni contrastanti tra esperti e attivisti, il cui esito finale dipenderà dalla pressione dei gruppi di interesse che, come prevedibile, si intensificherà nella fase finale di stesura.
Un passo verso l’efficienza, o l’ennesima burocrazia che ingessa l’innovazione? La risposta non è semplice, e, come sempre, la verità si nasconde tra le righe di un testo che potrebbe definire il futuro dell’IA in Europa.
La novità: più flessibilità, ma anche più responsabilità
Luca Bertuzzi, uno dei giornalisti più vicini al dossier dell’AI Act, ha commentato con la consueta lucidità che questa nuova versione del Codice si allontana dalle rigidità delle edizioni precedenti. “Meno prescrittiva e più orientata ai risultati”, dice Bertuzzi, un approccio che favorisce i fornitori di modelli di intelligenza artificiale, concedendo loro una maggiore libertà di scelta nel modo in cui raggiungere gli obiettivi richiesti. Non più regole ferree, ma la possibilità di adattarsi alla realtà concreta del mercato, con la speranza di evitare l’ennesima norma che diventa ostacolo all’innovazione.
Sotto la superficie, però, il dibattito rimane aperto. È vero che il Codice si propone di essere un po’ meno burocratico rispetto a quanto si temeva inizialmente, ma le novità non sembrano accontentare tutti. La flessibilità, se da un lato risulta promettente per i fornitori di tecnologie, dall’altro alimenta i timori che la sicurezza e l’affidabilità dei modelli possano essere trascurate in nome di una “approvazione a buon mercato”.
La questione della discriminazione e della sicurezza
Una delle modifiche più rilevanti riguarda la “discriminazione illegale su larga scala”, che non è più vista come un rischio sistemico da considerare obbligatoriamente in ogni valutazione dei modelli. In precedenza, le aziende erano costrette a dimostrare che non stessero contribuendo alla perpetuazione di discriminazioni razziali, di genere, o di altra natura, ma la nuova bozza riduce la necessità di monitorare e prevenire automaticamente questi fenomeni. È un passo avanti? Probabilmente, ma il fatto che si stia cercando di ridurre l’ambito di responsabilità in un settore così delicato lascia spazio a preoccupazioni.
Per quanto riguarda la sicurezza, la bozza si allontana dalle specifiche misure di protezione per lasciare maggiore margine di manovra ai fornitori nel raggiungimento degli standard di sicurezza richiesti, specificamente il livello “RAND SL3”. Meno dettagli tecnici, quindi, ma la domanda è se i fornitori saranno veramente in grado di rispondere adeguatamente a questo livello di libertà, senza compromettere la qualità della sicurezza.
Le valutazioni esterne: una necessità, ma costosa
Un altro aspetto interessante riguarda le valutazioni esterne. Nella bozza finale, si è cercato di chiarire quando queste valutazioni siano necessarie e in che modo dovrebbero essere implementate. In passato, la quantità di informazioni da condividere era talmente elevata che rappresentava un freno per le piccole e medie imprese. Ora, la nuova versione cerca di alleggerire l’onere informativo, ma la resistenza non è certo assente. Anselm Küsters, del Centre for European Policy, solleva il problema delle “gravi ambiguità” che permangono nel testo, mentre Boniface de Champris della CCIA Europe segnala che “restano seri problemi”, a partire dalle gravose valutazioni del rischio da parte di terze parti.
La questione di queste valutazioni obbligatorie da parte di entità esterne non è solo una questione di burocrazia, ma anche un serio ostacolo economico e operativo per molte aziende. Il rischio che si crei un mercato di esperti e consulenti in grado di “aggiustare” i modelli per soddisfare le normative è concreto, ma non sempre corrisponde a un miglioramento effettivo della sicurezza e dell’affidabilità dei sistemi IA.
La fase finale: lobbismo e revisione
Con il codice che dovrà essere pronto entro il 2 maggio, è lecito aspettarsi un’intensificazione delle attività di lobbying. I gruppi di interesse, dai grandi fornitori di tecnologia alle associazioni di consumatori, cercheranno di influenzare il testo finale, portando avanti richieste che potrebbero diluire ulteriormente le misure più rigorose, o, al contrario, chiederanno un inasprimento dei requisiti per evitare che l’UE rischi di diventare una giungla regolatoria troppo permissiva. La vera domanda è: quale sarà l’equilibrio finale tra protezione, innovazione e competitività? E chi ne uscirà vincente?
È evidente che il Codice di condotta sta cercando di trovare un punto di equilibrio tra sicurezza, innovazione e libertà operativa. Ma, come sempre accade, la realtà è più complessa di quanto un testo possa rappresentare, e la vera sfida sta nell’applicare questi principi in un mondo che evolve con una velocità quasi incontrollabile. Non resta che attendere il prossimo round di modifiche, sperando che, al termine del processo, l’UE avrà trovato un compromesso che non soffochi il potenziale dell’intelligenza artificiale, ma che allo stesso tempo protegga i diritti dei cittadini europei.