Se c’è una cosa che la geopolitica tecnologica ci ha insegnato negli ultimi anni, è che il futuro dell’intelligenza artificiale non si gioca solo nei laboratori della Silicon Valley. L’ingresso di DeepSeek, un’azienda cinese, con il suo modello R1, nel già affollato campo dei modelli di linguaggio di grandi dimensioni (LLM) ha messo in evidenza una realtà imbarazzante per gli Stati Uniti: nonostante tutti gli sforzi per contenere l’avanzata della Cina nel settore dell’AI, una nuova potenza sta emergendo. E se i numeri parlano chiaro, la strategia americana ha fallito. Con R1, DeepSeek ha creato uno dei modelli di intelligenza artificiale più competitivi degli ultimi mesi, riscrivendo le regole di un gioco in cui, fino a poco tempo fa, solo le aziende americane sembravano avere la parola finale.

DeepSeek non ha solo prodotto un modello tecnologicamente avanzato; ha dimostrato che la concorrenza nel campo dell’AI non è una questione di budget smisurati o di chip all’avanguardia, ma di innovazione rapida e astuzia. Quando R1 è stato rilasciato solo poche settimane fa, è subito salito in cima alla classifica delle app su Apple App Store, superando persino l’app di OpenAI. Il segreto? Un approccio che riduce drasticamente i costi di sviluppo e gestione rispetto ai principali concorrenti americani.

Un modello che sfida le convenzioni

Il successo di R1 non è frutto del caso, ma il risultato di alcune intuizioni rivoluzionarie. Mentre i modelli LLM tradizionali si affidano in gran parte al fine-tuning supervisionato per migliorare le loro prestazioni, DeepSeek ha introdotto un processo di reinforcement learning (RL). Questo tipo di apprendimento automatico è un meccanismo in cui il modello esplora vari approcci per risolvere un compito e viene ricompensato in base ai risultati ottenuti. Con questo approccio, DeepSeek ha creato un modello che non solo impara più velocemente, ma riduce anche i costi di addestramento.

Ma la vera magia sta nell’uso della distillazione. In sostanza, DeepSeek ha preso un modello grande e complesso, l’ha “distillato” nei suoi elementi più essenziali, riducendo la dimensione e i costi operativi senza sacrificare le prestazioni. È una mossa che sfida il modo in cui altri modelli LLM sono sviluppati, ma il cuore dell’innovazione di DeepSeek non si ferma qui.

Il terzo passo decisivo è stato l’introduzione di un approccio di reasoning che, pur non essendo il primo ad esplorarlo, è stato implementato con una freschezza e una capacità di adattamento uniche nel panorama dell’AI. Questi tre avanzamenti – RL, distillazione e reasoning – non sono solo tecniche avanzate. Sono un manifesto che, per l’AI, la Cina ha risorse e capacità di innovazione che non devono più essere sottovalutate.

L’impatto politico e strategico sulle politiche americane

La rapida ascesa di DeepSeek e R1 ci ricorda che la barriera all’ingresso nel mercato dell’AI è più bassa di quanto i policymaker americani abbiano immaginato. L’era in cui i giganti statunitensi dell’AI dominavano senza rivali sta giungendo al termine. Mentre il governo americano ha cercato di contenere il progresso della Cina nel settore, in particolare limitando l’accesso della Cina ai chip per il training, la realtà è che le politiche adottate non sono riuscite a frenare la crescita di aziende come DeepSeek. Anzi, sembra che queste politiche abbiano avuto l’effetto opposto.

Uno degli aspetti più rilevanti del modello R1 è la sua disponibilità con pesi aperti, contrariamente ai modelli “chiusi” della maggior parte delle aziende americane. Questo approccio permette a DeepSeek di spostare i costi computazionali dall’ambito dello sviluppo al lato dell’inferenza, riducendo così il potere di determinazione dei prezzi da parte dei fornitori di modelli chiusi. Ma la vera sfida per gli Stati Uniti sta nel fatto che, mentre i modelli possono essere sviluppati in Cina, l’inferenza può avvenire ovunque nel mondo, riducendo ulteriormente la possibilità di esercitare un controllo effettivo.

La transizione dal training all’inferenza: una rivoluzione in corso

In effetti, con l’avanzamento dell’AI, stiamo assistendo a una transizione fondamentale: la parte più onerosa del processo non è più tanto il training, ma l’inferenza. I modelli come R1 dimostrano che non è necessario possedere chip esclusivi per allenare grandi modelli, ma è sufficiente ottimizzare l’inferenza, ovvero il momento in cui il modello entra in azione, per ridurre drasticamente i costi. Gli Stati Uniti, con la loro attenzione quasi esclusiva sui chip per il training, sembrano essere fuori sincrono con i tempi. In un futuro in cui il modello computazionale è spostato sull’inferenza, le politiche che oggi limitano l’accesso ai chip per il training potrebbero risultare obsolete.

Il futuro dell’AI globale: un gioco che non è ancora finito

Mentre le politiche statunitensi continuano a concentrarsi su un settore che sta rapidamente evolvendo, è chiaro che la competizione nell’AI è tutt’altro che conclusa. La Cina non solo sta colmando il divario tecnologico, ma lo sta facendo con una velocità che sfida le convenzioni americane. Nonostante l’apparente fallimento delle politiche americane nel contenere la crescita dell’AI cinese, la partita non è ancora finita. Citando Winston Churchill, “questa non è la fine. Non è nemmeno l’inizio della fine. Ma forse, è la fine dell’inizio”.

Questa sfida, come tutte le grandi sfide geopolitiche, è appena cominciata. E, come dimostra il caso di DeepSeek, la chiave per vincerla potrebbe non risiedere solo nella tecnologia, ma anche nella capacità di adattarsi rapidamente a un mondo in cui la competizione è globale e la Cina sta diventando una rivale formidabile.