Nel 2023, OpenAI sembrava incarnare il paradigma della responsabilità etica nella corsa all’intelligenza artificiale. Sei mesi di test per GPT-4, un impegno pubblico verso la trasparenza e persino collaborazioni con istituzioni governative per garantire che la nuova tecnologia non si trasformasse in un’arma nelle mani sbagliate. Ma quell’immagine da tech-samaritani sembra già roba da archivio storico. Oggi, il nuovo modello “o3” viene lanciato dopo appena pochi giorni di valutazioni. Una marcia forzata al rilascio che ha tutta l’aria di una sindrome da IPO imminente o da guerra fredda tra colossi dell’IA. O entrambe.
Dietro questa virata non ci sono misteri: pressione competitiva, fame di mercato, e un culto ossessivo per il “first mover advantage” stanno spingendo OpenAI ad accelerare brutalmente il ciclo di sviluppo dei suoi modelli. Il problema? Che questi modelli non stanno diventando solo più intelligenti, ma anche più pericolosi. E il tempo per verificarlo si è drasticamente ridotto.
Il contrasto è grottesco. Quando l’IA era ancora un giocattolo accademico o un tool di nicchia, la sicurezza era una priorità. Oggi, mentre ci avviciniamo all’automazione di compiti complessi e potenzialmente letali – dalla scrittura di codice biovirale fino alla manipolazione sociale su scala massiva – la sicurezza viene delegata a test automatizzati, fatti in fretta e su versioni provvisorie del modello.
Uno dei punti più inquietanti è proprio questo: le valutazioni di sicurezza non vengono nemmeno più eseguite sulla versione finale del modello rilasciato al pubblico. Si testano i cosiddetti “checkpoint” – prototipi intermedi – e poi si rilasciano versioni migliorate, potenzialmente più potenti e meno prevedibili. È come fare il crash test su una Fiat Panda e poi vendere una Ferrari dicendo che “tanto sono simili”.
Secondo Daniel Kokotajlo, ex ricercatore OpenAI oggi alla guida dell’AI Futures Project, nessuno è realmente incentivato a rallentare. Né OpenAI, né Google, né Meta, né l’immancabile Elon Musk con la sua xAI. La pressione del mercato schiaccia tutto. Il risultato? Nessuno ha l’obbligo di informare il pubblico su capacità pericolose emerse dopo il lancio. Tanto vale dire che il far west è tornato, ma stavolta parla in codice Python.
OpenAI si difende parlando di “efficienze”, automazione, e miglior bilanciamento tra rapidità e rigore. Johannes Heidecke, responsabile dei sistemi di sicurezza, ci tiene a rassicurarci: i test sono sufficienti, i rischi catastrofici vengono mitigati, tutto sotto controllo. Una narrazione ottimistica che stride con le testimonianze interne. “È una ricetta per il disastro,” ha detto una delle persone che sta testando o3. Altri ex dipendenti e ricercatori denunciano l’assenza di follow-through su promesse importanti, come quella di fare fine-tuning con dataset altamente specializzati per verificare se il modello possa essere usato – per esempio – per migliorare la trasmissibilità di un virus.
Ma il fine-tuning costa, e molto. Serve potenza di calcolo, esperti di dominio, dataset costruiti ad hoc. E in un contesto dove ogni mese guadagnato può valere miliardi in valutazione, il costo dell’etica è facile da mettere in nota a margine.
Il rischio più subdolo non è nemmeno il rilascio accidentale di un’IA potenzialmente letale, ma l’erosione sistematica della fiducia pubblica. Quando i big dell’IA iniziano a trattare la sicurezza come un processo opzionale, da ottimizzare come si fa con il budget IT, allora non parliamo più di tecnologia ma di roulette russa. Con il caricatore pieno.
L’Unione Europea con l’AI Act si prepara a imporre regole, ma il vuoto normativo globale è ancora profondo. E mentre i governi arrancano per capire cosa sia un LLM, i laboratori privati lo spingono al massimo, aggiornando le loro “safety policies” più spesso di quanto aggiornino i modelli stessi.
Per chi fosse ancora convinto che “l’IA sarà utile se ben gestita”, il problema è proprio lì: chi la gestisce. E perché dovrebbe farlo con prudenza, quando il rischio reputazionale di uno scandalo futuro è meno costoso della perdita di leadership oggi?
La risposta di OpenAI a questa domanda sembra chiara come dice il FT: muoviti veloce e rompi tutto. Anche se quel “tutto” è la nostra fiducia collettiva in chi guida il futuro tecnologico.