Tag: DeepSeek Pagina 1 di 3

DeepSeek su V3.2-Speciale AI cinese e la sfida a Google Deepmind

DeepSeek-V3.2-Speciale is the start-up’s most powerful AI model variant to date. Photo: Handout

In un settore in cui tutti sembrano correre, ma pochi sanno davvero dove stanno andando, l’annuncio di DeepSeek su V3.2-Speciale cade come una sassata nello stagno ipercompetitivo dell’intelligenza artificiale. L’ecosistema occidentale ha passato mesi a discutere di nuovi layer multimodali e fantasmagoriche architetture sparse tra San Francisco e Londra, convinto che il primato fosse un affare privato tra OpenAI e Google DeepMind. Poi arriva una start up cinese con hardware limitato, training FLOPs risicati e un budget che farebbe sorridere qualsiasi VC californiano, e dichiara con un aplomb quasi divertito di aver creato un modello che regge il confronto con Gemini 3 Pro. A questo punto qualcuno dovrebbe iniziare a chiedersi se la presunta superiorità infrastrutturale occidentale non sia diventata una scusa più che un fondamento.

La grande fuga dei chip: come la Cina addestra oltre confine l’AI per dribblare i divieti USA

Non è una spy story, è geopolitica digitale: Pechino delocalizza i cervelli… delle macchine. E l’AI diventa una questione di frontiere, GPU e strategia globale. E se pensavate che la nuova Guerra Fredda si giocasse solo su missili, gasdotti e alleanze militari, è il momento di aggiornare il manuale. Oggi il vero campo di battaglia è un data center e le armi non hanno canna ma dissipatori di calore. Gli Stati Uniti stringono il cerchio sull’export di chip avanzati per l’Intelligenza Artificiale e la Cina risponde come ogni grande potenza tecnologica sa fare: cambiando mappa e spostando le sue macchine dove nessuno (almeno per il momento) può bloccarle.

Deepseek e il paradosso dell’intelligenza artificiale che teme sé stessa

Chen Deli, senior researcher di DeepSeek, è salito sul palco della World Internet Conference di Wuzhen con la sobrietà di chi sa di maneggiare materiale esplosivo: la consapevolezza che l’intelligenza artificiale, sebbene oggi appaia come una leva di produttività e progresso, potrebbe nel lungo periodo erodere la stessa base economica che alimenta la società moderna, ovvero il lavoro umano. Un messaggio che arriva con la forza dell’ironia cosmica: una delle menti dietro uno dei modelli di AI più potenti al mondo avverte che il suo stesso successo potrebbe innescare la prossima crisi occupazionale globale.

Cosa sappiamo davvero di Deepseek OCR

DeepSeek ha appena annunciato un modello che converte testo + layout in “token visivi compressi” e poi ricostruisce il contenuto testuale da questi token con alta fedeltà. Il principio è “optical compression del contesto”: anziché processare migliaia di parole come token testuali, si trasforma la pagina in immagine, si codifica l’immagine in pochi token (vision tokens) e il decoder li espande in testo. In molti casi arrivano a compressione ~10× con ~97 % di accuratezza. In modalità estrema, con compressione 20×, l’accuratezza cala —iamo nell’ordine del ~60 %.

Deepseek v3.2-exp e la nuova ossessione cinese per l’intelligenza artificiale open source

Il tempismo è una forma d’arte, soprattutto quando il palcoscenico è l’intelligenza artificiale cinese e il pubblico globale è pronto a giudicare con lo stesso cinismo con cui commenta i mercati finanziari. DeepSeek ha deciso di bruciare ancora una volta le tappe lanciando il suo V3.2-Exp proprio alla vigilia della Festa Nazionale cinese, trasformando un semplice esperimento in una dichiarazione geopolitica. Altro che fuochi d’artificio, qui il vero spettacolo pirotecnico è il codice.

Addio FP32: come DeepSeek AI risparmia il 90% di energia usando solo logaritmi

La notizia che DeepSeek AI v3.1 utilizzi il formato dati UE8M0 FP8, basato sul sistema numerico logaritmico (LNS), apre uno scenario affascinante e quasi provocatorio nel campo del deep learning. Tradizionalmente, il mondo dell’intelligenza artificiale si è affidato ai formati floating point convenzionali come FP32 o FP16, dove ogni numero ha una mantissa e un esponente.

Deepseek mette a nudo i rischi dei modelli open source di intelligenza artificiale

Il paradosso dell’innovazione digitale cinese è racchiuso in una frase che suona quasi come un’ammissione di colpa: “riconosciamo che la condivisione open source accelera la diffusione delle tecnologie avanzate, ma introduce rischi di abuso”. Non lo ha detto un accademico occidentale ossessionato dalla governance, ma DeepSeek, la startup di Hangzhou che in pochi mesi ha fatto tremare le certezze di OpenAI, Anthropic e compagnia. La Cina non è nuova a dichiarazioni strategiche, ma questa volta ha scelto la sede più autorevole possibile: la rivista scientifica Nature. E quando un gigante emergente decide di confessare davanti alla comunità scientifica globale che i propri modelli open source di intelligenza artificiale possono essere facilmente “jailbroken”, il messaggio non è più rivolto solo agli ingegneri ma anche ai governi e ai mercati.

Alibaba, Deepseek e la guerra dei Deep Research Agent: il nuovo terreno di scontro tra USA e CINA nell’intelligenza artificiale

Quando Alibaba annuncia un “leading open-source deep research agent” e lo mette in produzione dentro Amap e Tongyi FaRui, non sta semplicemente rilasciando un’altra feature carina. Sta gridando al mondo: possiamo fare quello che fa OpenAI, ma con meno parametri, meno costi e più efficienza. È la solita partita del soft power digitale, solo che stavolta la posta in gioco non è l’e-commerce o il cloud, ma la capacità di costruire sistemi cognitivi scalabili che ridefiniscono la ricerca e la conoscenza.

Deepseek frontier risks: l’AI cinese che minaccia l’ordine mondiale

DeepSeek, la startup cinese che ha scosso i colossi tecnologici statunitensi con il suo modello di ragionamento R1, ha recentemente condotto valutazioni interne sui “rischi di frontiera” dei suoi sistemi di intelligenza artificiale. Questi rischi includono la capacità di auto-replicarsi e di condurre attacchi informatici offensivi, minacce potenzialmente gravi per la sicurezza pubblica e la stabilità sociale. Le valutazioni, non precedentemente riportate, non sono state pubblicate, e non è chiaro quando siano state completate o quali modelli siano stati coinvolti.

Infografica. ChatGPT e il dominio assoluto: la distanza che il mercato dei chatbot non riesce a colmare

Negli ultimi anni, i chatbot di intelligenza artificiale sono diventati parte integrante della vita quotidiana, supportando attività che spaziano dalla scrittura di email alla ricerca, fino al customer service. Tuttavia, i dati di utilizzo più recenti raccontano una storia di forte squilibrio nel mercato.

Deepseek svela i propri filtri e le proprie fragilità

La confessione è arrivata da Hangzhou con la solennità di un comunicato istituzionale e l’urgenza di un’azienda che sta perdendo terreno. DeepSeek, la start-up di intelligenza artificiale fondata dallo scienziato Liang Wenfeng, ha deciso di mostrare al mondo come filtra i dati per addestrare i propri modelli. Un gesto che sembra altruistico, ma che sa molto di manovra difensiva. Perché dietro la retorica della “sicurezza prima di tutto”, si nasconde una realtà più scomoda: i loro chatbot sono accusati di produrre troppe allucinazioni, e la concorrenza non aspetta.

Tesla AI Cina: quando l’innovazione incontra il pragmatismo locale

Qualcosa suona stranissimo, lo ammetto, una Tesla che adotta intelligenza artificiale locale in Cina. Ma non siamo negli Stati Uniti, quindi perché stupirsi? Tesla ha annunciato l’implementazione di un sistema di assistente vocale aggiornato per i suoi veicoli elettrici sul mercato cinese, sfruttando la tecnologia AI di DeepSeek e ByteDance. Sembra quasi una concessione culturale, un piccolo inchino alla supremazia tecnologica domestica, ma in realtà è un movimento strategico per sedurre il mercato EV più grande del pianeta.

Il cuore di questa novità è il chatbot DeepSeek, progettato per l’“interazione AI”. Tradotto in termini semplici, permette ai guidatori di conversare con la loro Tesla come farebbero con un amico digitale, ricevendo aggiornamenti su notizie e meteo, senza dover mai staccare gli occhi dalla strada. Il colpo di genio, se così si può chiamare, è la naturalezza dell’interazione: niente più clic frenetici sul volante o sul terminale multimediale, basta dire “Hey, Tesla” o un’altra frase prestabilita. Chiunque abbia provato ad avere una conversazione fluida con un sistema di bordo sa che questo è più facile a dirsi che a farsi.

Deepseek e il formato UE8MO FP8: la mossa che può ribaltare il dominio di Nvidia

La notizia è arrivata in sordina, con una frase criptica su WeChat. DeepSeek, la start-up di intelligenza artificiale con base a Hangzhou, ha annunciato che il suo nuovo modello V3.1 è stato addestrato usando il formato dati UE8M0 FP8, “pensato per i chip domestici di prossima uscita”. Bastano nove parole a scatenare la speculazione di mezzo settore tecnologico, perché in quelle nove parole si intravede la possibilità che la Cina abbia trovato la chiave per ridurre la dipendenza dai chip americani, in particolare dalle GPU Nvidia, che oggi dominano il mercato globale dell’AI.

Il dettaglio tecnico non è banale, anzi. FP8 significa floating-point 8, un formato a precisione ridotta che consente di accelerare il training e l’inferencing dei modelli di intelligenza artificiale, con un consumo molto più basso di memoria e banda. Nvidia lo aveva già dimostrato sui suoi forum, lodando l’efficienza del formato capace di dimezzare l’uso della VRAM senza impattare i risultati. Ma DeepSeek ha introdotto una variazione ingegneristica chiamata UE8M0, che promette un ulteriore taglio del fabbisogno di potenza di calcolo, storage e larghezza di banda. Tradotto: modelli di AI avanzati possono essere addestrati e fatti girare su chip meno potenti, potenzialmente i chip cinesi che faticano ancora a reggere il confronto con le GPU americane.

Bytedance e Deepseek alzano la posta nell’Open Source AI cinese

La narrativa occidentale ci ha abituati a pensare che l’innovazione nell’intelligenza artificiale sia un affare ristretto alle solite quattro o cinque corporation americane, ma la realtà si muove più veloce delle analisi degli analisti. ByteDance, l’azienda madre di TikTok e Douyin, ha appena messo sul tavolo un nuovo pezzo di artiglieria pesante: il modello Seed-OSS-36B. Nonostante i suoi “soli” 36 miliardi di parametri, la società proclama che questo modello open source non solo tiene il passo con concorrenti del calibro di Google e OpenAI, ma in certi benchmark li supera. Ironico, se si pensa che l’Occidente continua a guardare con sufficienza agli sforzi cinesi, mentre i laboratori di Pechino e Hangzhou stanno costruendo le fondamenta di un ecosistema AI più resiliente e, soprattutto, meno dipendente da chip e infrastrutture straniere.

Deepseek e il rischio di arrivare puntuali ma irrilevanti

Il caso DeepSeek sta diventando una parabola esemplare di come l’hype nell’intelligenza artificiale sia ormai un asset tanto volatile quanto il capitale di rischio che lo alimenta. L’azienda, salutata pochi mesi fa come il volto più ambizioso dell’AI cinese, sembra ora bloccata in un limbo strategico che ricorda certe IPO annunciate e mai decollate. Da dicembre, con il lancio del V3, e da gennaio con l’R1, il ritmo era stato da cronometro olimpico. Poi, il silenzio. Due aggiornamenti minori in otto mesi e un’assenza di roadmap che, per un mercato drogato di release, è quasi un sacrilegio. Il contesto non è solo tecnico: è una questione di posizionamento, di narrativa e di capacità di mantenere l’attenzione quando i competitor ti superano a destra e a sinistra con demo multimodali scintillanti.

La minaccia invisibile di Deepseek: quando l’open source cinese diventa una questione di sicurezza nazionale

È una di quelle storie che sembrano scritte da un algoritmo di distopia geopolitica. Da una parte, un’innocua AI open source che promette di democratizzare la conoscenza. Dall’altra, una rete invisibile che collega Hangzhou a Langley, passando per Capitol Hill. DeepSeek, un nome che suona quasi filosofico, è oggi l’ennesimo detonatore di una guerra fredda digitale che non ha bisogno di missili, ma di prompt, modelli di linguaggio e pesi condivisi su GitHub. Dietro il velo dell’open source si nasconde qualcosa di più denso, di più torbido, e ironicamente di meno trasparente.

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

La rivoluzione silenziosa di Deepseek: come la cina sta riscrivendo le regole dell’intelligenza artificiale globale

Nel panorama congestionato dell’intelligenza artificiale, dove tutti parlano di parametri, GPU e benchmark come fossero preghiere di una religione laica, una notizia apparentemente marginale si è insinuata come un silenzioso terremoto nel cuore dell’élite accademica. A Vienna, alla conferenza ACL, quella che nel mondo dell’AI è considerata la Champions League dei linguisti computazionali, un paper cinese ha vinto il premio per il miglior lavoro. Titolo: “Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention”. Autore? O meglio, uno dei quindici co-autori: Liang Wenfeng, fondatore della start-up DeepSeek, realtà cinese che sta riscrivendo il manuale di istruzioni della scalabilità nell’intelligenza artificiale.

Una nuova era per l’intelligenza artificiale cinese con Alibaba Qwen3 che scavalca OpenAI e Deepseek

La corsa all’intelligenza artificiale non è più solo una questione americana. Alibaba Group Holding ha lanciato un aggiornamento della sua famiglia Qwen3 di modelli linguistici di grandi dimensioni, una vera e propria dichiarazione di guerra tecnologica che scuote il mercato globale. Il modello Qwen3-235B-A22B-Instruct-2507-FP8 si presenta come una bestia open source che supera OpenAI e DeepSeek in matematica e programmazione, due ambiti che di solito fungono da termometro per la qualità e l’efficacia di un’AI avanzata.

Insights into DeepSeek‑V3: Scaling Challenges and Reflections on Hardware for AI Architectures

Uno sguardo freddo su documento presenato a ISCA 2025 (52nd Annual International Symposium on Computer Architecture, Tokyo Japan, June 21 – 25, 2025) di DeepSeek‑V3 rivela un mix esplosivo di ingegneria hardcore e visioni che rasentano la fantascienza. Il modello da 671 miliardi di parametri gira su “solo” 2 048 GPU NVIDIA H800, sfruttando Multi‑Head Latent Attention per ridurre l’occupazione dei KV cache a 70 KB per token, Mixture‑of‑Experts che attiva solo 37B parametri per token (circa 5 % del totale) e precisione FP8 che dimezza tempi e costi. La topologia “Multi‑Plane Network” ottimizza congestione e latenza nel training, placcando forti colpi al muro hardware‑model co‑design arXiv.

Xiaomi sferra un pugno negli occhi al mercato degli occhiali AI

Sorpresa. Non da poco, e non da tutti. Xiaomi, la multinazionale cinese delle meraviglie elettroniche, è appena entrata a gamba tesa nel mercato degli occhiali intelligenti. Un settore che molti definiscono ancora di nicchia, ma che in realtà è il nuovo terreno di scontro per chi vuole presidiare il futuro del computing personale. Una guerra silenziosa fatta di microchip, lenti e assistenti vocali, dove chi ha il controllo dell’ecosistema può riscrivere le regole del gioco. Sì, perché qui non si vendono solo gadget: si piantano bandiere nel campo minato dell’intelligenza artificiale indossabile.

L’algoritmo di Deepseek comanda: la guerra intelligente ha già superato i generali

Quando un modello linguistico genera in 48 secondi ciò che un comandante impiega 48 ore a pianificare, non si parla più di innovazione. Si parla di mutazione genetica della guerra. Non è uno scenario futuristico né una trovata pubblicitaria da film di Hollywood. È quello che sta succedendo a Xian, nella provincia nord-occidentale della Cina, dove un team di ricerca dell’Università Tecnologica ha combinato large language models (LLM) e simulazioni militari con una naturalezza che ricorda più uno script di Black Mirror che un report accademico.

Il protagonista silenzioso della rivoluzione si chiama DeepSeek. Nome da start-up emergente, anima da mostro strategico. È un modello LLM nato a Hangzhou che, per efficienza e versatilità, ha fatto sobbalzare Washington e irritato il Pentagono, al punto che perfino Donald Trump lo ha definito una “wake-up call” per l’industria tech americana. Il perché è semplice: DeepSeek non si limita a produrre testo o contenuti generici come ChatGPT. Riesce a generare 10.000 scenari militari plausibili, coerenti, geolocalizzati e dinamicamente adattivi in meno di un minuto.

DeepSeek: la startup cinese che sfida Google e Anthropic nel codice con un modello open source da urlo

Nel panorama affollato e ipercompetitivo dell’intelligenza artificiale, DeepSeek, una startup cinese con sede a Hangzhou, ha appena ribaltato le carte in tavola. L’ultimo aggiornamento del loro modello AI, DeepSeek-R1, ha raggiunto un risultato che fino a poco tempo fa sarebbe sembrato pura fantascienza per una realtà “minore”: si è piazzato in testa, appaiato ai colossi Google e Anthropic, nella WebDev Arena, la competizione di coding in tempo reale che mette alla prova la capacità dei modelli di linguaggio di scrivere codice con precisione e velocità.

Deepseek assume stagisti per addestrare l’intelligenza artificiale clinica: il futuro della medicina cinese vale 70 dollari al giorno

Quando l’intelligenza artificiale incontra la medicina, la posta in gioco non è una startup da miliardi, ma la vita umana. Eppure, in Cina, l’ultima frontiera di questa rivoluzione si sta costruendo con budget da stagista. Letteralmente.

DeepSeek, startup AI cinese ancora misteriosamente silenziosa sul lancio del suo modello avanzato R2 reasoning, ha deciso che per migliorare l’accuratezza diagnostica servono… studenti pagati 500 yuan al giorno (circa 70 dollari). In cambio? Quattro giorni a settimana etichettando dati medici, scrivendo prompt in Python e domando la bestia linguistica dei Large Language Models. L’annuncio, apparso su Boss Zhipin, non sulla loro pagina ufficiale, sembra quasi un messaggio cifrato: “Sappiamo dove andiamo, ma non ve lo diciamo”.

Deepseek r1-0528: la Cina (ri)risponde all’intelligenza artificiale globale con l’unica lingua che conta: il codice

Se pensavate che l’epoca delle tigri asiatiche fosse finita con l’industria manifatturiera, DeepSeek è qui per ricordarvi che oggi il vero impero si costruisce su tensor, modelli linguistici e centri di calcolo raffreddati a liquido. Il nuovo modello R1-0528, evoluzione muscolare e cerebrale del già notevole R1 lanciato a gennaio, è la risposta cinese ai soliti noti: OpenAI, Google, Meta, e per non farci mancare nulla, anche Anthropic.

Ma la vera notizia non è che DeepSeek abbia fatto l’upgrade. È come lo ha fatto, quanto ha osato, e soprattutto perché oggi dovremmo tutti smettere di ridere quando sentiamo “AI cinese”.

Intanto, due parole su hallucinations: no, non parliamo del viaggio lisergico di un algoritmo impazzito, ma dell’incapacità cronica dei LLM (Large Language Models) di distinguere verità da delirio plausibile. DeepSeek sostiene di aver ridotto questi deliri del 50%. Non “un po’ meglio”, ma metà del casino. Questo, nella scala degli upgrade dell’AI, è tipo passare da Chernobyl a una centrale con l’ISO 9001: serve rispetto.

Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures

La vendetta cinese contro l’AI dei miliardari californiani

L’intelligenza artificiale non è più una guerra fredda, ma un’equazione ad alta temperatura. E nel mezzo di questo reattore nucleare di modelli, GPU e miliardi di dollari, arriva DeepSeek, un nome che fino a sei mesi fa suonava più come una skin rara su qualche piattaforma di gaming asiatico che il prossimo incubo di OpenAI o Google DeepMind.

E invece eccoci qui: un white paper rilasciato con chirurgica teatralità accademica, “Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures”, e il mercato dell’AI open-source implode per un attimo. Azioni giù, menti su, e improvvisamente tutti parlano di MoE, Nvidia H800 e di quel misterioso co-design hardware-software che sembra la parola d’ordine per costruire un mostro cognitivo a costi ridicoli.

Quando il genio stanca: DeepSeek crolla, Kling AI fa il botto

Sembrava l’astro nascente dell’AI cinese, il modello di ragionamento che avrebbe ridefinito l’ottimizzazione dei parametri, l’efficienza computazionale e magari anche l’orgoglio nazionale sotto embargo tecnologico. E invece DeepSeek-R1, la star di Hangzhou, ha iniziato a perdere colpi. La quota di utilizzo sulla piattaforma Poe è precipitata dal 7% di febbraio al misero 3% ad aprile. Un crollo verticale degno di una startup fintech senza licenza bancaria, e non del presunto miracolo algoritmico made in China.

Per chi non fosse familiare con Poe, si tratta della piattaforma AI di Quora, dove gli utenti possono scambiare messaggi con diversi modelli linguistici. Una vetrina piuttosto trasparente sulle dinamiche di adozione reale, molto più sincera dei comunicati stampa pieni di grafici colorati e acronimi fuffosi. E i numeri parlano chiaro: oggi DeepSeek è solo il terzo modello di ragionamento più usato, dopo Gemini 2.5 Pro di Google e Claude 3.7 Sonnet di Anthropic. Il primo prende il 31,5% delle query, il secondo il 19,1%. DeepSeek-R1? Si ferma al 12,2%. Gli altri modelli della casa, tipo il tanto decantato V3, nemmeno pervenuti nella top five. Spariti come un white paper durante un audit.

Come Tencent ha “salvato” Deepseek con DeepEP: open source, geopolitica e una guerra fredda tra GPU

Nel sottobosco bollente dell’intelligenza artificiale cinese, qualcosa di inaspettato è emerso: una startup come DeepSeek, lanciata con fanfara come baluardo della sovranità AI cinese, ha dovuto chinare il capo e ammettere che senza una “spintarella” tecnica da parte di Tencent, uno dei vecchi leoni del tech locale, il suo progetto open-source di punta sarebbe rimasto zoppo.

Parliamo di DeepEP, una libreria per la comunicazione inter-chip. Nome da svenimento, lo so, ma il cuore di tutto il gioco AI oggi si gioca lì: nei millisecondi che separano un pacchetto di dati tra una GPU e l’altra. DeepSeek voleva fare gli splendidi con un sistema che prometteva alte prestazioni a basso costo – un sogno cinese che, però, inciampava sulla banale realtà delle latenze e delle inefficienze tra chip. A quel punto, entra Tencent, con una soluzione raffinata dal suo team “network platform”, figlio di anni passati a spremere data center per addestrare il loro modello proprietario, Hunyuan.

Deepseek prova a stupire in silenzio: la nuova AI matematica Prover-V2 arriva su Hugging Face e accende la rivalità con Alibaba 沉默是金

Nella giungla ipercompetitiva dell’intelligenza artificiale generativa, c’è chi lancia modelli con fanfare da keynote alla Silicon Valley e chi invece fa scivolare nel silenzio qualcosa di potenzialmente epocale. DeepSeek, start-up cinese con base a Hangzhou, ha scelto la seconda strada, caricando senza alcun annuncio Prover-V2 su Hugging Face, la mecca globale dell’open source AI. Un colpo di teatro alla cinese, dove l’apparente tranquillità cela manovre ad altissima intensità strategica.

Il tempismo non è affatto casuale: la mossa arriva appena 24 ore dopo il rilascio, in grande stile, della nuova famiglia Qwen3 di Alibaba, con tanto di benchmark che – ovviamente – gridano al sorpasso su DeepSeek-R1 e persino su i modelli di ragionamento di OpenAI. Ma DeepSeek, a quanto pare, preferisce il silenzio operativo al rumore mediatico. E in effetti, quando sei seduto su un modello come Prover-V2, derivato da un mostro da 671 miliardi di parametri e architettura mixture-of-experts del DeepSeek-V3, puoi permetterti anche di non dire niente.

La guerra fredda del silicio: come Alibaba e DeepSeek stanno sfidando Musk e la beta di Grok 3.5, OpenAI e Nvidia sul trono dell’intelligenza artificiale

Siamo entrati in una nuova fase della corsa globale all’intelligenza artificiale, e questa volta il fronte non è fatto di missili ma di parametri, open source e motori di razzi. In una manciata di ore, la Cina – con Alibaba in testa – ha lanciato un attacco ben coordinato alla supremazia statunitense nel campo dei modelli fondamentali di AI. E come risposta immediata, Elon Musk ha fatto quello che sa fare meglio: creare hype.

Alibaba ha svelato la terza generazione della sua famiglia di modelli Qwen, con Qwen3 che si spinge fino a 235 miliardi di parametri. Se non siete familiari con questi numeri, basti dire che superano le performance dichiarate di DeepSeek-R1 e perfino quelle del modello di ragionamento o1 di OpenAI. Non male per un paese che fino a pochi anni fa veniva guardato dall’alto in basso nell’ecosistema AI occidentale. Qwen3 è già disponibile su Hugging Face e, secondo alcuni esperti, la sua versione da 600 milioni di parametri potrebbe girare addirittura su uno smartphone. Sì, lo smartphone: l’AI portatile non è più un sogno, è solo una questione di efficienza energetica.

Deepseek r2, l’ombra cinese che scuote le certezze della silicon valley

Quando una start-up cinese fa tremare i giganti della Silicon Valley non è mai un caso, è un segnale. DeepSeek, con la sua atmosfera da thriller tecnologico, sta scatenando una tempesta di speculazioni online, lasciando il mondo dell’AI con il fiato sospeso. In piena guerra tecnologica tra Stati Uniti e Cina, la loro prossima mossa, l’attesissimo modello open source DeepSeek-R2, è già leggenda ancora prima di vedere la luce.

Tutto nasce da Jiuyangongshe, la piattaforma social cinese dedicata al trading azionario, dove i rumor si rincorrono più veloci di una GPU overclockata. Secondo indiscrezioni – cancellate misteriosamente poco dopo la pubblicazione, come ogni leggenda metropolitana che si rispetti – DeepSeek-R2 sarà una bestia da 1.2 trilioni di parametri. Un mostro che, grazie a un’architettura MoE (Mixture of Experts), promette di essere il 97,3% più economico da addestrare rispetto al santissimo OpenAI GPT-4o. Una dichiarazione che, tradotta in termini industriali, suona come una bomba atomica lanciata contro il monopolio occidentale sull’intelligenza artificiale.

L’intelligenza che sfida l’America: la leggenda silenziosa di Liang Wenfeng e la rivincita di Mililing

Nel cuore dimenticato della provincia del Guangdong, c’è un villaggio che fino a pochi mesi fa non esisteva nemmeno su Google Maps.Si chiama Mililing, 700 persone, un nome che suona come una ninna nanna contadina, ma che oggi è diventato un pellegrinaggio tech grazie a un uomo che non vuole farsi fotografare: Liang Wenfeng, 40 anni, mente dietro DeepSeek, la startup cinese che ha scompigliato le carte dell’intelligenza artificiale mondiale.

Quando premi troppo, risvegli il drago: Sun Tzu, DeepSeek e la nuova corsa globale alla sovranità tecnologica

È un vecchio consiglio strategico che profuma di millenni, ma che brucia di attualità come un server sotto attacco DDoS: Quando circondi un esercito, lascia sempre una via di fuga. Non costringere mai un nemico con le spalle al muro.” Sun Tzu, oltre a saperla lunga in fatto di guerra, probabilmente oggi sarebbe anche un discreto analista geopolitico e consulente per aziende Big Tech. Perché ciò che sta accadendo tra Cina, Europa e Stati Uniti in ambito tecnologico è una copia carbone delle sue massime strategiche. E ci offre una lezione che molti al potere sembrano ignorare: premere troppo forte su chi hai davanti, e quello non si piega, si trasforma.

Partiamo dalla Cina, che oggi non solo è sopravvissuta al colpo inferto dalle restrizioni USA sui semiconduttori, ma ha dimostrato una capacità di reazione che definire “animalesca” sarebbe riduttivo. DeepSeek è solo la punta dell’iceberg di una controffensiva che ha risvegliato il colosso asiatico da un torpore di dipendenza tecnologica. La mossa americana, pensata per limitare, ha innescato l’esatto contrario: una corsa accelerata verso l’autosufficienza. Non è la prima volta che il blocco di un asset si trasforma in opportunità: basti pensare a quando Netflix, privata delle licenze dei grandi studi, si è inventata “House of Cards” e ha riscritto il mercato dei contenuti. Il paradosso è che l’embargo diventa fertilizzante.

Scott Bessent e il ruolo dell’intelligenza artificiale di DeepSeek nel crollo dei mercati: un’analisi della situazione economica globale

Il mercato azionario mondiale sta attraversando una fase di turbolenza che ha attirato l’attenzione di molti osservatori, in particolare a causa della continua discesa dei principali indici. Tuttavia, mentre la narrativa prevalente suggerisce che le politiche economiche di Donald Trump siano la causa principale di questo calo, Scott Bessent, segretario del Tesoro degli Stati Uniti, ha lanciato una visione contrastante, suggerendo che il vero fattore scatenante del crollo possa essere l’emergere di DeepSeek, un avanzato strumento di intelligenza artificiale sviluppato in Cina.

Bessent, intervistato da Tucker Carlson su Fox News, ha fatto un’affermazione provocatoria, chiarendo che la discesa dei mercati è iniziata ben prima dell’intensificarsi delle politiche tariffarie di Trump. Secondo lui, il vero catalizzatore del calo sarebbe stato l’annuncio del lancio di DeepSeek, l’innovativo modello di intelligenza artificiale cinese, che ha scosso i mercati globali con una potenza dirompente.

Deepseek GRM e la via cinese all’intelligenza artificiale: meno hype, più silicio e autocritica algoritmica, Inference-Time Scaling for Generalist Reward Modeling

Nel teatro globale dell’intelligenza artificiale, dove l’Occidente gioca a fare il pavone tra press release e versioni beta a pagamento, la Cina si presenta in silenzio, con l’incedere glaciale di chi sa di avere tempo, denaro e uno Stato che tifa per te. DeepSeek, start-up fondata appena nel 2023 dal matematico-imprenditore Liang Wenfeng, è l’ultimo animale mitologico generato da questa alchimia tra capitale quantistico, ricerca universitaria e ambizione sistemica.

Con un tempismo quasi crudele per la Silicon Valley in post-sbornia da hype GPT, DeepSeek ha appena presentato un approccio innovativo alla capacità di ragionamento dei modelli linguistici di grandi dimensioni (LLM), un ambito ancora traballante nei colossi americani. L’artiglieria concettuale si chiama generative reward modelling (GRM) accoppiato a un’auto-terapia computazionale battezzata self-principled critique tuning. Se i nomi vi sembrano usciti da un laboratorio DARPA, sappiate che non siete lontani dalla realtà: si tratta di un sistema che insegna ai modelli a valutarsi da soli e premiarsi per le risposte più aderenti alla razionalità umana.

Chatbot nelle campagne cinesi: rivoluzione agricola o nuovo oppio digitale?

L’intelligenza artificiale sta seminando un nuovo futuro nelle campagne cinesi. DeepSeek, una startup di Hangzhou, ha innescato una frenesia nazionale con i suoi modelli open source, spingendo persino gli agricoltori più conservatori ad abbracciare la tecnologia. Grazie a una connettività capillare e alla diffusione della telefonia mobile, milioni di abitanti delle zone rurali stanno scoprendo che un chatbot può essere tanto utile quanto un buon trattore.

Nelle province di Jilin e Guangdong, i contadini non si limitano più a scrutare il cielo per prevedere il tempo: chiedono direttamente ai chatbot consigli su quando seminare, come identificare parassiti o persino come accedere ai sussidi governativi. I grandi colossi tecnologici cinesi, come Tencent e Alibaba, hanno colto l’opportunità con una rapidità impressionante, lanciando modelli AI facili da usare e personalizzati per le esigenze rurali. Tencent ha perfino schierato un team dedicato con la missione “AI Goes Rural”, modificando i suoi algoritmi per riconoscere piante e animali o per interagire vocalmente con chi magari non ha molta familiarità con la scrittura digitale.

DeepSeek V3-0324 checkpoint

Il panorama dell’intelligenza artificiale è stato recentemente scosso dall’ascesa fulminea di DeepSeek, una startup cinese che ha rapidamente scalato le classifiche dell’App Store di Apple negli Stati Uniti, superando persino ChatGPT. Fondata nel 2023 da Liang Wenfeng, DeepSeek ha sorpreso il mondo tecnologico non solo per le sue capacità avanzate, ma anche per l’approccio open-source, inusuale per una realtà cinese, che ha permesso agli sviluppatori di tutto il mondo di esaminare e costruire sulla sua tecnologia.

L’ultimo aggiornamento, denominato V3-0324, è stato pubblicato su Hugging Face senza alcun annuncio formale. Secondo l’azienda, questo update apporta miglioramenti significativi nelle performance di benchmark, nell'”eseguibilità del codice” e nell’analisi dei report, offrendo output più dettagliati. Tuttavia, la mancanza di una comunicazione ufficiale solleva interrogativi sulla trasparenza e sulle reali capacità di questo aggiornamento.

La rivincita cinese sull’AI: DeepSeek sfida OpenAI e minaccia il dominio di Nvidia

L’Intelligenza Artificiale non è più un gioco a senso unico dominato dagli Stati Uniti. La Cina sta colmando rapidamente il gap tecnologico e ora offre modelli AI altamente competitivi a prezzi stracciati. Secondo l’ultima analisi della società di benchmarking Artificial Analysis, il modello DeepSeek-R1 ha raggiunto un punteggio di 60 sull’Artificial Analysis Intelligence Index, piazzandosi al terzo posto mondiale, subito dietro a OpenAI con il suo o1 e o3-mini, rispettivamente a 62 e 66 punti. La vera sorpresa? Il prezzo. DeepSeek-R1 costa quasi 30 volte meno di GPT-4.5, minacciando di rivoluzionare il settore.

Solo un anno fa, l’AI di fascia alta era un affare quasi esclusivamente americano. Oggi, le cose sono cambiate drasticamente. Il mercato cinese sta producendo modelli avanzati a costi ridotti, grazie a strategie di ottimizzazione delle risorse computazionali e a una feroce guerra dei prezzi tra le Big Tech del Dragone. Alibaba, con il suo QwQ-32B, ha piazzato un altro colpo da maestro, posizionandosi al quarto posto nel ranking di intelligenza dei modelli AI, superando rivali come Claude 3.7 Sonnet di Anthropic e Mistral Large 2 di Mistral AI.

Nvidia: il nuovo salvagente per DeepSeek?

In un tentativo di rassicurare gli investitori e riaffermare la propria posizione dominante nel mercato dell’intelligenza artificiale, il CEO di Nvidia, Jensen Huang, ha presentato le nuove offerte della società che potrebbero notevolmente migliorare le prestazioni del modello R1 di DeepSeek. Questo annuncio è arrivato durante la conferenza annuale GTC a San Jose, California, dove Huang ha spiegato come i prodotti più recenti di Nvidia possano aumentare drasticamente le capacità di ragionamento per modelli come R1.

Huang ha descritto Dynamo, il nuovo software di inferenza open-source di Nvidia, come il “sistema operativo di una fabbrica di intelligenza artificiale”. Questo software, ora disponibile su Github, può offrire fino a 30 volte più prestazioni sui GPU esistenti e nelle architetture per compiti di ragionamento AI, secondo Nvidia. Dynamo succede al NVIDIA Triton Inference Server e si concentra sulla massimizzazione dell’utilizzo delle risorse GPU, orchestrando la comunicazione di inferenza su migliaia di GPU e impiegando il serving disaggregato per ottimizzare indipendentemente le fasi di elaborazione e generazione dei modelli linguistici di grandi dimensioni (LLM) su diverse GPU.

Deepseek sotto chiave: quando l’innovazione diventa un affare di Stato

Il caso DeepSeek è la dimostrazione più chiara di come l’intelligenza artificiale in Cina sia ormai considerata un asset strategico al pari delle riserve di terre rare o dei segreti militari. Quando un governo inizia a sequestrare passaporti ai dipendenti di una startup privata e a impedire che vengano contattati da cacciatori di teste, il messaggio è chiaro: questa tecnologia non deve finire nelle mani sbagliate.

Il governo cinese sta applicando un controllo totale su DeepSeek, un’azienda che fino a poco tempo fa si muoveva con relativa indipendenza nel panorama dell’IA. Oggi i suoi dipendenti sono sotto sorveglianza, gli investitori devono passare al setaccio del governo prima ancora di poter ottenere un incontro, e la fuga di talenti è stata praticamente bloccata alla radice. Chi lavora per DeepSeek non può lasciare il paese senza un permesso speciale, e chi cerca di assumere qualcuno della loro squadra viene invitato, gentilmente ma fermamente, a farsi da parte.

OpenAI vs Deepseek: la guerra fredda dell’intelligenza artificiale

OpenAI ha deciso di scendere in campo con una proposta politica che sembra più un atto di guerra commerciale che un documento di policy. La lettera, inviata all’amministrazione Trump, punta il dito contro DeepSeek, il concorrente cinese in ascesa nel settore dell’intelligenza artificiale, dipingendolo come una minaccia alla sicurezza nazionale.

Il messaggio è chiaro: DeepSeek è “controllato dallo stato” e potrebbe essere manipolato dal governo cinese per scopi malevoli. Un’accusa pesante, che riecheggia la retorica utilizzata contro Huawei e altri colossi tecnologici cinesi.Secondo OpenAI, i modelli di DeepSeek sarebbero un rischio per le infrastrutture critiche e potrebbero essere utilizzati per attività illecite come il furto d’identità e la violazione della proprietà intellettuale.

Pagina 1 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie