La bellezza della tecnologia è che ogni volta che pensiamo di aver risolto qualcosa, un nuovo problema sbuca fuori come un coniglio da un cilindro. Così è con i “compute thresholds” – soglie di calcolo che, per qualche motivo, sembrano essere la nuova linea Maginot della regolamentazione IA. Immaginate di essere un funzionario del governo, che di IA non capisce un tubo, ma deve comunque capire come non far finire GPT-5 nelle mani di qualche quindicenne nerd che vuole costruire un ordigno nucleare nel garage. Entra in scena il compute threshold, il sogno di ogni burocrate: una soglia teorica che segna il punto in cui un modello di IA diventa “pericoloso” e quindi richiede controlli seri.

Ma, come in ogni buona storia, c’è un colpo di scena. Gavin Newsom, governatore della California e improvvisato esperto di IA, ha deciso di mettere in discussione l’idea stessa di queste soglie. “Ma perché dovremmo regolare l’IA in base alla potenza di calcolo?” si chiede con un tono filosofico, “Non dovremmo forse concentrarci sui rischi reali e tangibili che essa comporta?” Un’idea che sembra nobile, ma che rischia di mandare in tilt il sistema stesso. Le soglie di calcolo non sono perfette, certo, ma eliminare il filtro di base è come buttare via il metal detector in aeroporto perché non riesce a trovare tutto.

Come Funzionano (o Dovrebbero Funzionare) i Compute Thresholds

Il concetto alla base dei compute thresholds è questo: se un modello è sufficientemente potente, dovremmo prestargli attenzione, poiché potrebbe diventare pericoloso. Il governo americano, seguito dall’Unione Europea, ha scelto di far ruotare una buona parte della regolamentazione intorno a questi valori di calcolo. Tutto logico, vero? Con i modelli avanzati, tipo GPT-4, siamo relativamente tranquilli. Nessuno sta ancora pianificando un’apocalisse. Ma il timore è che in futuro qualcuno, con un po’ di fortuna (e un bel po’ di potenza di calcolo), potrebbe effettivamente riuscire a ottenere qualcosa di veramente esplosivo.

Ecco quindi che le soglie di calcolo diventano utili. Soglie che ci consentono di intercettare questi modelli avanzati prima che qualche luminare della criminalità digitale decida di chiedere a una IA come costruire un virus letale. Ma la realtà è che il compute threshold è come quel vecchio tizio seduto su una panchina che continua a ripetere: “Aspetta e vedrai, prima o poi succederà.” Non si sa se ha ragione, ma vale la pena di ascoltarlo per un attimo.

Perché Buttare le Soglie di Calcolo nel Cestino è un Errore

Una cosa è chiara: eliminare i compute thresholds significherebbe trasformare la regolamentazione dell’IA in una colossale corsa ad ostacoli per startup e piccoli sviluppatori. Regolamentare tutto e tutti significherebbe soffocare l’innovazione, lasciando spazio solo ai colossi della tecnologia – OpenAI, Google, Anthropic e compagnia bella. Le soglie, per quanto imperfette, permettono a una startup di costruire un chatbot senza dover passare attraverso una sfilza infinita di controlli governativi. Un po’ come lasciare guidare una bicicletta senza chiedere la patente. Raggiungere le soglie elevate richiede enormi risorse, denaro e infrastrutture, cose che solo i colossi possono permettersi. Così, lasciando in pace le soglie, le autorità evitano di soffocare sul nascere la creatività di chi lavora nel settore.

Non tutti sono d’accordo. C’è chi sostiene che le soglie di calcolo non siano un buon metro di misura del rischio reale e che dovremmo piuttosto analizzare caso per caso. Ma cosa significa? Essenzialmente, vorrebbero che ogni nuovo modello di IA fosse passato al microscopio, con una serie di test complessi e costosi per valutare i rischi specifici. Una bella idea, se non fosse che rischia di rendere proibitiva l’entrata sul mercato per chiunque non sia già un gigante tecnologico. Risultato? Alla fine avremmo solo OpenAI e Google a fare chatbot, mentre le piccole aziende starebbero ancora lottando per finanziare le prime fasi di sviluppo.

Soglie di Calcolo: Meglio di Niente

Certo, le soglie di calcolo non sono la soluzione a tutto. Se il nostro obiettivo è limitare la diffusione di IA che generano contenuti offensivi o razzisti, allora sono di poca utilità. Serve altro. Ma per l’emergere dei rischi cosiddetti “anticipati” – come la possibilità che un giorno un modello possa diventare così avanzato da aiutare un malintenzionato a creare un’arma biologica – le soglie rappresentano il miglior compromesso possibile.

I critici diranno che i compute thresholds non sono sufficienti e non sono a prova di futuro. Cosa succede se i modelli futuri diventano più potenti senza superare le soglie di calcolo? Il rischio è reale, ma non insormontabile. Si potrebbero prendere in considerazione anche i parametri di addestramento, il calcolo per il rinforzo o persino il calcolo d’inferenza, come suggerito in SB 1047. Oppure, se proprio vogliamo essere prudenti, possiamo aggiornare periodicamente le soglie in modo che catturino solo i modelli più avanzati. E no, non sarà mai un sistema perfetto. Ma, come ogni burocrazia sa, la perfezione è un obiettivo affascinante ma totalmente irrealistico.

L’IA tra Sicurezza e Innovazione: Dove Tracciare la Linea?

In fondo, le soglie di calcolo non sono una bacchetta magica. Servono a dare una prima scrematura, a evitare che le autorità regolamentino qualsiasi modello per principio. Ma senza soglie, rischiamo di ritrovarci con regolamenti così pesanti da far sembrare il settore della tecnologia avanzata una specie di Via Crucis per sviluppatori. Chi dice di voler proteggere il pubblico dai rischi dell’IA con una regolamentazione rigorosa dovrebbe ricordare che troppa regolamentazione può fare più danni che benefici. Innovazione e sicurezza devono camminare insieme – ma senza strangolarsi a vicenda.

E così, cari lettori, ci troviamo a un bivio. Potremmo sacrificare tutto sull’altare della prudenza, o lasciare che le soglie di calcolo continuino a fare il loro sporco lavoro, filtrando almeno i casi più a rischio. Come in ogni buona commedia, siamo davanti a una scelta ridicola e importante allo stesso tempo. Ma se c’è una cosa che la storia ci ha insegnato è che, a volte, la soluzione meno perfetta è quella che funziona meglio.