Andrew Barto e Richard Sutton, due pionieri dell’intelligenza artificiale, hanno ricevuto il prestigioso Premio Turing per aver sviluppato il “reinforcement learning”, una tecnica di apprendimento automatico che permette all’IA di affinare le proprie decisioni tramite tentativi ed errori. Un metodo che ha reso possibili colossi come AlphaGo di Google e ChatGPT di OpenAI. Eppure, invece di celebrare con entusiasmo, i due scienziati hanno deciso di usare il palco per lanciare un avvertimento: le aziende tecnologiche stanno rilasciando modelli IA senza alcun vero controllo, con la stessa logica di chi costruisce un ponte e lo collauda facendoci passare sopra la gente.
Sutton, ex DeepMind, e Barto, oggi ricercatore all’Università del Massachusetts, non sono certo i primi a sollevare il problema. Geoffrey Hinton e Yoshua Bengio, altri premiati del Turing e definiti “padri dell’IA”, hanno più volte criticato l’assenza di verifiche rigorose. Un gruppo di esperti di settore, tra cui il CEO di OpenAI Sam Altman, ha persino firmato una dichiarazione nel 2023 avvertendo che il rischio di estinzione legato all’IA dovrebbe essere una priorità globale. Un avviso che suona quasi ironico, considerando che OpenAI è la stessa azienda che ha trasformato la sicurezza dell’IA in un argomento di marketing, mentre nel frattempo si è convertita in una società a scopo di lucro.
Barto non ha usato mezzi termini: le aziende non stanno praticando un’ingegneria responsabile, ma piuttosto si fanno guidare dagli incentivi economici. Del resto, mettere in pausa il business per testare accuratamente i modelli sarebbe un sacrificio troppo grande, specie quando c’è un mercato affamato pronto a divorare ogni nuova versione di IA, indipendentemente dai rischi.
Nel frattempo, Google e OpenAI continuano a presentare modelli sempre più potenti, mentre la regolamentazione arranca nel tentativo di capire come tenere il passo. Per ora, le uniche “misure di sicurezza” applicate sembrano essere qualche documento vago e una spruzzata di dichiarazioni di intenti. Ma finché l’IA sarà prima di tutto un business e solo dopo una scienza, la strategia non cambierà: prima si vende, poi si vede cosa succede.