Negli ultimi giorni, i dirigenti di alcune divisioni AI dell’azienda hanno espresso preoccupazioni tutt’altro che velate: sembra che un nuovo modello di intelligenza artificiale conversazionale, sviluppato non da una big tech, ma da un hedge fund cinese, stia mettendo Meta in ginocchio nella corsa all’AI. Tra i timori più grandi c’è il rischio che la prossima versione di Llama, il cavallo di battaglia di Meta nel settore dell’AI, non sia all’altezza di DeepSeek, la creazione del rivale asiatico. Mathew Oldham, direttore delle infrastrutture AI di Meta, ha dichiarato che il divario di prestazioni potrebbe farsi imbarazzante, secondo due dipendenti che conoscono da vicino gli sforzi disperati del team per “recuperare il ritardo”.
DeepSeek è una società cinese di intelligenza artificiale emersa come spin-off di High-Flyer, un hedge fund quantitativo con sede a Hangzhou. Fondata nel 2015 da tre ingegneri della Zhejiang University, High-Flyer si è rapidamente affermata come uno dei principali fondi quantitativi in Cina, utilizzando algoritmi di trading basati sull’intelligenza artificiale.
Nel 2023, High-Flyer ha avviato un laboratorio dedicato all’intelligenza artificiale generale, che successivamente è diventato DeepSeek. Questo spin-off ha permesso a DeepSeek di concentrarsi sulla ricerca e sviluppo di modelli di intelligenza artificiale avanzati, separando tali attività dalle operazioni finanziarie di High-Flyer.
DeepSeek ha utilizzato circa 2.048 GPU Nvidia H800 per l’addestramento del suo modello di punta, DeepSeek-V3. Questo è significativamente inferiore alle oltre 20.000 GPU H100 stimate utilizzate da altri laboratori leader nel settore.
Meta, d’altra parte, ha investito massicciamente nelle infrastrutture hardware per l’addestramento dei suoi modelli Llama. Per Llama 3.1, Meta ha impiegato circa 30,8 milioni di ore di calcolo GPU, utilizzando un numero significativamente maggiore di GPU rispetto a DeepSeek. Per il prossimo modello, Llama 4, l’azienda sta utilizzando un cluster senza precedenti di oltre 100.000 GPU Nvidia H100, come annunciato dal CEO Mark Zuckerberg.
OpenAI ha seguito una strategia simile a quella di Meta, investendo pesantemente in risorse computazionali per l’addestramento dei suoi modelli. Per GPT-4, si stima che OpenAI abbia utilizzato oltre 20.000 GPU Nvidia H100, con un costo di addestramento intorno ai 40 milioni di dollari.
Meta, che si vanta di essere un gigante tech con risorse illimitate, si trova ora nella surreale posizione di correre dietro ai risultati di un fondo d’investimento cinese. In una corsa che dovrebbe essere dominata dai soliti colossi occidentali, il dominio di DeepSeek sembra una scomoda realtà che nessuno in casa Meta era pronto ad affrontare. Ai posteri – o forse all’algoritmo – l’ardua sentenza.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla nostra newsletter gratuita e accedi ai contenuti esclusivi di Rivista.AI direttamente nella tua casella di posta!