Nel mondo scintillante dell’intelligenza artificiale, dove le grandi aziende si sfidano a colpi di miliardi per costruire il cervello sintetico definitivo, un gruppo di ricercatori di Stanford e dell’Università di Washington ha deciso di rovinare la festa. Con un budget ridicolo e un po’ di ingegno, hanno creato un modello AI di ragionamento che rivaleggia con OpenAI, spendendo meno di una cena in un ristorante mediocre.

Il modello in questione, chiamato “s1” (forse per sottolineare quanto sia basilare rispetto ai colossi da miliardi di dollari), è stato addestrato con la sorprendente cifra di… 1.000 domande. Già, niente terabyte di dati segreti o infrastrutture da capogiro, solo un piccolo set di domande ben selezionate. Il tutto è costato meno di 50 dollari e ha richiesto la bellezza di 26 minuti per essere raffinato. Tempi difficili per chi ancora pensa che servano budget illimitati per ottenere risultati nel campo dell’IA.

Il trucco dietro questa magia è la distillazione, un metodo che permette a modelli più piccoli di rubacchiare (pardon, “apprendere”) le risposte dai modelli più grandi. In questo caso, i ricercatori hanno raffinato s1 utilizzando le risposte del modello di ragionamento AI di Google, Gemini 2.0 Flash Thinking Experimental. Un’operazione geniale e pericolosa, dato che Google vieta esplicitamente l’uso della sua API per sviluppare modelli concorrenti. The Verge ha chiesto un commento a Google, ma sembra che l’azienda abbia avuto bisogno di più di 26 minuti per elaborare una risposta.

La base di s1 è Qwen2.5, un modello open-source di Alibaba Cloud. Inizialmente, gli scienziati avevano a disposizione 59.000 domande per addestrarlo, ma hanno scoperto che ridurre il dataset a soli 1.000 quesiti non comprometteva le prestazioni. Una bella notizia per chi pensa che servano petabyte di dati per ottenere qualcosa di utile. Il modello è stato allenato su appena 16 GPU Nvidia H100, dimostrando che forse non servono interi data center per creare un’intelligenza artificiale decente.

Ma la vera chicca è la tecnica di test-time scaling, un trucco che costringe l’IA a pensare un po’ più a lungo prima di dare una risposta. Il metodo? Aggiungere la parola “Wait” nelle risposte del modello, spingendolo a riflettere ulteriormente. Chi avrebbe mai detto che l’intelligenza artificiale potesse essere migliorata semplicemente con un po’ di pazienza?

A rendere tutto più esilarante è il fatto che OpenAI ha recentemente accusato DeepSeek di aver distillato informazioni dai suoi modelli per creare un concorrente più economico, violando i termini di servizio. Eppure, i ricercatori di s1 sostengono di aver superato il modello o1-preview di OpenAI fino al 27% nei test di matematica competitiva. Se i risultati sono corretti, s1 potrebbe essere la prova definitiva che la corsa all’IA non è una questione di risorse infinite, ma di trovare il modo più intelligente per usare quelle che si hanno.

La morale di questa storia? L’era delle AI costosissime potrebbe essere al tramonto. Se un gruppo di ricercatori è riuscito a creare un modello avanzato con un pugno di dollari e qualche GPU, viene da chiedersi cosa resterà degli imperi tecnologici costruiti attorno alla narrazione che servano miliardi per fare innovazione. O forse il segreto è sempre stato nella capacità di far funzionare al meglio quello che già esiste, senza sprecare risorse in spettacoli di potenza fine a sé stessi.