Nel teatro globale dell’intelligenza artificiale, dove l’Occidente gioca a fare il pavone tra press release e versioni beta a pagamento, la Cina si presenta in silenzio, con l’incedere glaciale di chi sa di avere tempo, denaro e uno Stato che tifa per te. DeepSeek, start-up fondata appena nel 2023 dal matematico-imprenditore Liang Wenfeng, è l’ultimo animale mitologico generato da questa alchimia tra capitale quantistico, ricerca universitaria e ambizione sistemica.
Con un tempismo quasi crudele per la Silicon Valley in post-sbornia da hype GPT, DeepSeek ha appena presentato un approccio innovativo alla capacità di ragionamento dei modelli linguistici di grandi dimensioni (LLM), un ambito ancora traballante nei colossi americani. L’artiglieria concettuale si chiama generative reward modelling (GRM) accoppiato a un’auto-terapia computazionale battezzata self-principled critique tuning. Se i nomi vi sembrano usciti da un laboratorio DARPA, sappiate che non siete lontani dalla realtà: si tratta di un sistema che insegna ai modelli a valutarsi da soli e premiarsi per le risposte più aderenti alla razionalità umana.
Dietro l’innovazione c’è una collaborazione con la Tsinghua University, da anni fucina di cervelli che non chiedono stage da Google per sentirsi importanti. Secondo il paper pubblicato su arXiv, DeepSeek-GRM ha superato metodi noti sul mercato, raggiungendo “prestazioni competitive” rispetto ai migliori reward model pubblici. Tradotto dal gergo accademico: i loro LLM iniziano a ragionare come esseri umani e lo fanno più velocemente, senza consumare budget da Fortune 500.
Ma qui arriva il twist: il modello sarà open-source. Non ora, non si sa quando, ma il messaggio è chiaro. Mentre l’Occidente litiga su copyright, licensing e diritti d’autore di frasi generate da AI, DeepSeek alza il sipario su una filosofia radicalmente diversa: trasparenza strategica, comunità di sviluppo decentralizzata e capacità di scalare senza passare dalla borsa.
A rendere ancora più interessante il momento è l’attesa spasmodica per DeepSeek-R2, la nuova versione del modello di ragionamento che potrebbe debuttare proprio ad aprile. Il suo predecessore, R1, ha già disturbato il sonno di parecchi dirigenti AI occidentali: bassi costi, prestazioni solide e un livello di flessibilità che ha lasciato molti a bocca aperta. Reuters ha parlato di un lancio imminente, ma l’azienda, fedele alla dottrina del silenzio cinese, ha glissato con eleganza burocratica. Il customer service si è limitato a negare tutto in una chat con clienti aziendali. Nessun comunicato, nessuna smentita ufficiale: il classico “non commentiamo i rumors”, ma con un’aria di chi sa benissimo che i riflettori si accenderanno comunque.
Nel frattempo, DeepSeek continua a perfezionare il suo modello V3, arrivato ora alla release 0324, che ha introdotto miglioramenti nel ragionamento, nello sviluppo front-end e nella scrittura in cinese. E per chi pensava che fosse solo una vetrina di potenza computazionale, a febbraio sono stati open-sourciati cinque repository di codice. Niente slide di marketing, solo righe di codice pronte per essere analizzate e, volendo, migliorate.
Il fondatore Liang Wenfeng non è esattamente un volto da copertina di Forbes, ma è più interessante così: mente matematica, fondatore del fondo quantistico High-Flyer, e stratega che capisce che la vera leadership nel deep learning si conquista con la scarsità, non con il rumore. A febbraio ha partecipato a un simposio con Xi Jinping, evento che nel lessico di Pechino equivale a ricevere la benedizione imperiale.
Per ora DeepSeek non ha bisogno di lanciare trailer, investire in PR o comprare buzz. Basta pubblicare paper su arXiv, condividere codici su GitHub e lasciare che l’Occidente parli da solo. In questo scenario, dove le AI americane imparano a vendersi, le cinesi imparano a ragionare. E la differenza, alla lunga, non è solo semantica.