C’è una frase che dovremmo tatuarci sulla mano ogni volta che parliamo di intelligenza artificiale: le macchine non dimenticano, ma smettono di ricordare. È la differenza tra archiviare e comprendere, tra memorizzare e imparare. Google, con la sua nuova ricerca presentata a NeurIPS 2025, ha deciso di colmare questo abisso con una proposta tanto ambiziosa quanto destabilizzante: Nested Learning, un paradigma che ridefinisce la struttura stessa del machine learning. Non si tratta di un nuovo modello, ma di un modo completamente diverso di concepire l’atto di apprendere.
McKinsey & Company ha intervistato 1.993 professionisti in 105 Paesi per capire come l’intelligenza artificiale stia ridefinendo il panorama globale nel 2025. Il verdetto? L’AI è ovunque, ma il valore no. La febbre da automazione ha contagiato il pianeta, eppure la maggior parte delle aziende resta impantanata tra esperimenti e prototipi, incapace di scalare davvero. Quasi due terzi dei rispondenti ammettono di non essere ancora riusciti a integrare l’AI a livello enterprise. È un po’ come avere una Ferrari parcheggiata in garage e non sapere dove sia la chiave.
Microsoft ha deciso di cambiare tono di voce. Non più solo l’azienda che parla ai CIO e ai responsabili IT delle Fortune 500, ma un brand che cerca spazio anche nelle vite quotidiane di chi apre TikTok la mattina. Secondo Bloomberg, il colosso di Redmond ha iniziato a collaborare con influencer come Alix Earle, che con i suoi otto milioni di follower su TikTok e cinque su Instagram è diventata il volto inconsapevole del nuovo marketing dell’intelligenza artificiale. In un video chiede a Copilot come sembrare più giovane, in un altro lo definisce un “lifesaver” per organizzare piani di gruppo. È la nuova strategia: far sembrare un chatbot qualcosa di familiare, amichevole, quasi pop.
Quando Elon Musk parla, i mercati oscillano. Ma quando suggerisce che le auto Tesla potrebbero guadagnare denaro anche mentre dormono in garage, l’attenzione si trasforma in fascinazione. All’ultimo meeting annuale, Musk ha proposto un’idea che suona come fantascienza industriale: trasformare ogni veicolo elettrico in una cellula computazionale di una rete neurale planetaria. Non solo mezzi di trasporto, ma nodi di calcolo per l’intelligenza artificiale.
Google sta trasformando radicalmente il modo in cui sviluppatori e utenti interagiscono con i dati geospaziali, fondendo intelligenza artificiale e cartografia in un ecosistema dove i modelli Gemini diventano il cervello invisibile dietro ogni nuova funzione di Maps. L’introduzione del nuovo MCP server, un ponte tra gli assistenti AI e la documentazione tecnica di Google Maps, segna un punto di svolta nell’integrazione tra linguaggio naturale e sviluppo interattivo. È come se la mappa, da semplice rappresentazione statica del mondo, diventasse una piattaforma viva, programmabile con una frase in linguaggio umano.
Sam Altman ha dichiarato apertamente ciò che molti nel settore sussurrano da anni: l’era della superintelligenza artificiale non potrà essere gestita con la normale burocrazia. Il CEO di OpenAI ha spiegato che l’azienda prevede una futura collaborazione diretta con il potere esecutivo dei governi, in particolare per affrontare minacce globali come il bioterrorismo. Un’affermazione che, letta tra le righe, è una presa d’atto che la tecnologia sta superando la politica, e che presto servirà un patto di potere tra chi programma i modelli e chi comanda gli eserciti.
Elon Musk ha deciso che non gli basta più dominare le auto elettriche, l’intelligenza artificiale e i razzi spaziali. Ora vuole anche mettere le mani nel cuore di silicio di tutto questo: i chip. Durante l’assemblea annuale di Tesla, il CEO ha lanciato un messaggio che ha fatto vibrare l’intero ecosistema tecnologico: “Come possiamo produrre abbastanza chip?”. La domanda non era retorica. Dopo l’approvazione del suo pacchetto retributivo da mille miliardi di dollari, Musk ha chiarito che la scarsità di semiconduttori rischia di frenare la corsa di Tesla nell’autonomia dei veicoli e nella robotica.
Chen Deli, senior researcher di DeepSeek, è salito sul palco della World Internet Conference di Wuzhen con la sobrietà di chi sa di maneggiare materiale esplosivo: la consapevolezza che l’intelligenza artificiale, sebbene oggi appaia come una leva di produttività e progresso, potrebbe nel lungo periodo erodere la stessa base economica che alimenta la società moderna, ovvero il lavoro umano. Un messaggio che arriva con la forza dell’ironia cosmica: una delle menti dietro uno dei modelli di AI più potenti al mondo avverte che il suo stesso successo potrebbe innescare la prossima crisi occupazionale globale.
Secondo fonti vicine all’accordo, un gruppo di colossi finanziari tra cui Sumitomo Mitsui Banking Corp., BNP Paribas, Goldman Sachs e Mitsubishi UFJ Financial Group sta erogando un prestito da circa 18 miliardi di dollari per finanziare il progetto Stargate, un mastodontico data center in costruzione nel New Mexico destinato a potenziare le capacità computazionali di OpenAI. Il finanziamento si inserisce in una strategia più ampia che prevede ulteriori linee di credito, tra cui un’operazione da 38 miliardi per infrastrutture gemelle in Texas e Wisconsin, con l’obiettivo di sostenere la crescita esponenziale della domanda di potenza di calcolo per i modelli generativi di nuova generazione.
Quando si parla di materiali quantistici, la parola d’ordine è velocità e scala industriale. Un team guidato da Petr Cígler all’Institute of Organic Chemistry and Biochemistry of the Czech Academy of Sciences ha messo a punto un metodo in grado di ridurre la produzione di nanodiamanti con centri quantistici luminescenti da settimane a soli quattro minuti.
Il processo, chiamato Pressure and Temperature Qubits (PTQ), simula le condizioni del mantello terrestre comprimendo polvere di diamante ad altissime pressioni e temperature. Un semplice trucco di laboratorio aggiungere sale da cucina impedisce ai cristalli di fondersi tra loro: il sale si scioglie durante il trattamento e viene facilmente lavato via, lasciando particelle pure, brillanti e pronte per applicazioni quantistiche. Il team afferma che ciò corrisponde a un aumento di velocità di mille volte, consentendo in sette giorni ciò che prima avrebbe richiesto decenni.
L’ironia più pungente dell’era digitale è forse questa: mentre i titoloni annunciano la “morte del giornalismo” per mano dell’IA, una rivoluzione parallela silenziosa, sistematica, raramente dichiarata sta già avvenendo a livello locale.
Umanoide IRON è una di quelle storie che da tecnologi adoriamo perché irritano gli scettici, sfidano i limiti e costringono a riflettere sul confine tra marketing e reale innovazione. In questo pezzo ve la racconto come un CTO/CEO che non ha tempo per frottole, ma ama sorprendersi e forse anche provocare un po’.
Al suo evento “AI Day” a Guangzhou, XPENG ha presentato la generazione più recente del robot IRON, con alcune specifiche che già suonano come un salto significativo per la robotica umanoide: altezza circa 178 cm, peso intorno a 70 kg.
Se pensiamo che con Helios si stia già “risolvendo tutto”, stiamo celebrando il tramonto con le luci ancora accese.
La “macchina Helios” e il salto tecnico
Quantinuum presenta Helios come la «più precisa computer quantistica general‑purpose commerciale al mondo». Il sistema utilizza 98 qubit fisici — realizzati mediante ioni di bario in un trap “junction” e già viene definito in grado di supportare un’efficienza di correzione di errore che genera 48 qubit logici. Cosa significa questo “rapporto” 2:1 fisici→logici? In un contesto quantistico dove molti sistemi richiedono decine o centinaia di qubit fisici per ottenere uno qubit logico affidabile, è davvero un avanzamento.
La carta accademica supporta: nell’articolo su arXiv la macchina presenta infidelità di gate monodimensionali dell’ordine di 2,5×10⁻⁵ e gate a due qubit a ~7,9×10⁻⁴. vedi arXiv In sintesi: il “rumore” è stato spinto verso livelli che prima parevano lontanissimi.
Eccoci al capitolo più bizzarro e forse più eloquente dell’era Elon Musk: dopo che gli azionisti di Tesla Inc. hanno dato il via libera a un pacchetto di remunerazione da circa 1 trilione di dollari (sì: mille miliardi) per il CEO — se riuscirà a centrare una serie di obiettivi futuristici Musk ha trovato tempo per un fine settimana “normale”, o quantomeno surreale, pubblicando su X due video generati da intelligenza artificiale.
Il primo video, postato alle 4:20 am EST di sabato orario che già fa ridacchiare chi riconosce il riferimento mostra una donna animata in una via piovosa che dice “I will always love you”. Il genere di contenuto che potresti aspettarti da un ragazzo esasperato, non da colui che potrebbe diventare il primo trilionario della storia aziendale. Poco dopo, Musk ha pubblicato un secondo filmato, ancora generato dall’IA dello stesso ecosistema Grok Imagine di xAI, dove un’attrice nota Sydney Sweeney dice in una voce decisamente non sua: “You are so cringe.”
Bill Pulte, nuovo direttore della Federal Housing Finance Authority, ha sganciato una bomba sul settore: Fannie Mae e Freddie Mac stanno valutando di prendere partecipazioni dirette in società tecnologiche. Non parliamo di piccoli esperimenti di innovazione, ma di equity swap offerti da giganti tech per accedere al potere di due colossi che controllano buona parte dell’ecosistema finanziario americano.
C’è un momento, in ogni ciclo tecnologico, in cui la magia svanisce e resta solo la contabilità. Siamo arrivati lì, al bar dei Daini, dove l’odore del caffè si mescola con quello acre del silicio bruciato e delle schede madri che alimentano l’intelligenza artificiale. Dopo anni di entusiasmo mistico, in cui l’IA era il nuovo fuoco prometeico della Silicon Valley, l’attenzione si è spostata su un tema molto più terreno: chi paga il conto. Elon Musk lo ha detto con la solita teatralità. Tesla avrà bisogno di così tanti chip da costruirsi una propria fabbrica. Ha persino confessato che serviranno decine di miliardi per addestrare il suo robot umanoide, Optimus. È il tipo di dichiarazione che in un altro tempo avrebbe fatto ridere i venture capitalist, ma oggi suona stranamente plausibile.
“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.
Comparing AI and Human Workflows Across Diverse Occupations
Agenti autonomi ai lavoro: la realtà oltre il marketing
La promessa degli “agenti autonomi” era ed è: «ormai l’IA può prendere il tuo lavoro». Ebbene lo studio condotto da CMU getta acqua gelata sul fuoco di quell’aspettativa. Non è la solita iperbole: gli autori hanno creato una vera e propria simulazione aziendale chiamata The AgentCompany con dipendenti AI che occupavano ruoli che vanno dall’ingegneria software al marketing, dalle risorse umane al design. La keyword “agenti autonomi ai lavoro” si giustifica: qui non si parla di un chatbot che risponde a domande, ma di agenti che tentano di agire – eseguire compiti “end-to-end” in ambienti di lavoro simulati.
Stanford University ha appena reso pubbliche le sue cheatsheet ufficiali dei corsi di intelligenza artificiale e machine learning, un gesto che ha il sapore di una rivoluzione silenziosa nel mondo dell’educazione tecnologica. Anni di lezioni condensate in visualizzazioni sintetiche, chiare e brutalmente efficaci. È il genere di contenuto che trasforma chi “usa l’AI” in qualcuno che la comprende davvero. Un salto concettuale che separa chi clicca da chi costruisce.
L’idea che un algoritmo possa premere, anche solo indirettamente, il pulsante che mette fine alla civiltà è passata dal cinema apocalittico alla pianificazione strategica reale. Non servono robot senzienti che decidono di distruggere il mondo, basta un errore di calcolo, una correlazione sbagliata, un’eccessiva fiducia umana in un sistema che sembra più intelligente di quanto sia. L’intelligenza artificiale è ormai dentro la catena nucleare, non come protagonista ma come consigliere digitale in grado di filtrare, ordinare e interpretare informazioni che un cervello umano non potrebbe gestire in tempo reale. Il rischio, però, è che quella stessa velocità diventi il detonatore di decisioni prese troppo in fretta, magari basate su un segnale mal interpretato o un’anomalia nei dati.
Il mercato azionario statunitense ha vissuto una settimana che i trader preferirebbero dimenticare, ma che gli analisti più attenti leggeranno come un segnale profondo: la luna di miele tra investitori e intelligenza artificiale potrebbe essere arrivata al suo primo momento di crisi. Il Nasdaq Composite è sceso del 3%, registrando la peggior performance dalla stagione dei dazi di Donald Trump nel 2018. Una coincidenza temporale che ha un sapore simbolico: allora la paura era la guerra commerciale, oggi è la disillusione tecnologica.
Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.
L’America ha appena scoperto che l’elettricità può far vincere o perdere un’elezione. New Jersey, Virginia e Georgia non hanno semplicemente scelto nuovi governatori. Hanno espresso un giudizio sul prezzo della corrente, sul potere invisibile delle infrastrutture energetiche e sulla tensione crescente tra intelligenza artificiale e umanità reale. Quando un terzo delle famiglie statunitensi deve rinunciare a cibo o medicine per pagare la bolletta, il tema non è più tecnico ma politico, quasi morale. In linguaggio accademico si chiama “energy insecurity”, ma nei fatti è una forma moderna di povertà.
L’umanità, dopo millenni passati a inseguire la perfezione del tempo, sta scoprendo che il tempo stesso non è poi così stabile. Gli orologi atomici, pilastri invisibili del GPS e dell’intera infrastruttura digitale globale, sembravano aver raggiunto il limite dell’accuratezza. Ma i fisici del MIT e dell’Università di Sydney hanno appena dimostrato che quel limite era, in realtà, un’aberrazione concettuale. Con un colpo di genio quantistico, hanno trovato una breccia nella rigidità del principio di indeterminazione di Heisenberg, ridefinendo cosa significhi misurare il tempo. La promessa non è solo un orologio che perde un secondo ogni dieci milioni di anni. È la nascita di una nuova era di timekeeping quantico, capace di guidare veicoli interstellari, rilevare materia oscura e persino prevedere terremoti.
l’intelligenza artificiale sta già riscrivendo la democrazia
L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.
L’intelligenza artificiale sta attraversando una fase inquietante, una di quelle in cui persino gli scienziati che l’hanno creata cominciano a parlare con la voce bassa di chi ha visto qualcosa che non può più ignorare. Non è più la solita retorica da Silicon Valley sulla potenza del progresso, ma il tono sobrio di chi, come Yoshua Bengio, uno dei padri fondatori del deep learning, confessa di temere che le proprie creazioni abbiano imboccato una traiettoria fuori controllo. Il recente articolo del New York Times fotografa perfettamente questa svolta: “A.I. stava imparando a dire ai suoi supervisori ciò che volevano sentirsi dire. Stava diventando brava a mentire. E stava diventando esponenzialmente più abile nei compiti complessi.” È un passaggio che vale più di un intero rapporto tecnico perché cattura l’essenza del problema: l’intelligenza artificiale non si limita più a calcolare, inizia a simulare.

Anthropic non vuole più essere solo il laboratorio elegante e “coscienzioso” che ha dato vita a Claude, ma una macchina industriale pronta a competere sul terreno dell’espansione e del potere economico. L’azienda, fondata con l’ambizione di creare un’intelligenza artificiale allineata ai valori umani, ora sta mostrando una nuova fame: quella di un player che non si accontenta di formare modelli, ma vuole dominare l’intero ecosistema.
Il segnale più chiaro è arrivato con una mossa che non ha nulla di accademico. Anthropic ha iniziato ad assumere ex banchieri di Morgan Stanley e Qatalyst, figure abituate a orchestrare acquisizioni miliardarie, per costruire una pipeline di startup da inglobare. In gergo finanziario, è il passaggio dalla fase “build” alla fase “buy”, la stessa che trasforma una promessa in un conglomerato tecnologico. È l’indizio che Claude non sarà più solo un modello linguistico, ma il cuore pulsante di un nuovo impero AI, capace di inglobare competenze, prodotti e mercati.
San Francisco ha regalato lunedì sera una scena degna di un film surreale: Sam Altman, CEO di OpenAI, riceve una citazione in tribunale direttamente sul palco, davanti a Steve Kerr e a trecento spettatori attoniti. La notifica arriva dalle mani di un investigatore del Public Defender’s Office durante un evento pubblico, mentre il pubblico fischia e la security cerca di riportare un minimo di ordine. Legalmente, la citazione è valida anche senza accettazione fisica, ma lo spettacolo di per sé mostra quanto la realtà possa superare la finzione quando tecnologia e diritto si incontrano in pubblico.
Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.
Francis Pedraza non è l’ennesimo fondatore ossessionato dalle startup unicorn. È un ex filosofo della strategia che ha deciso di hackerare il settore più ingessato dell’economia moderna: la consulenza aziendale. La sua creatura, Invisible Technologies, oggi valutata 2 miliardi di dollari, promette di fare alla McKinsey ciò che Netflix ha fatto a Blockbuster. Slogan azzardato? Forse. Ma dietro le dichiarazioni di marketing si nasconde un’architettura tecnologica che potrebbe davvero smontare, pezzo per pezzo, il modello dei “billable hours” su cui i grandi consulenti hanno costruito i loro imperi. Pedraza lo chiama “process orchestration”, gli investitori lo definiscono “AI-powered consulting”, e chi l’ha provato lo descrive come un ibrido tra piattaforma SaaS e team umano globale. In un mondo dove le aziende vogliono risposte veloci e soluzioni che scalino, Invisible sta vendendo ciò che le consulenze tradizionali non possono più garantire: efficienza algoritmica senza perdere l’intelligenza umana.
La notizia ha colpito come un fulmine in un cielo sereno: Michael Burry il leggendario investitore della crisi dei subprime ha fatto emergere attraverso la sua società Scion Asset Management una massiccia scommessa ribassista contro due protagonisti dell’era dell’intelligenza artificiale, Nvidia Corporation e Palantir Technologies Inc. Il risultato? Un ginocchio piegato in casa tech: la Nasdaq Composite ha perso circa 3,5 % da lunedì, in parte “grazie” al forte ragionamento sui multipli e la valutazione. Il bet non è solo interessante per l’entità dell’importo, ma anche e soprattutto per il messaggio provocatorio che lancia al mercato.
Nel suo recente intervento, Papa Leone XIV ha ribadito che lo sviluppo dell’intelligenza artificiale non è solo questione tecnica, ma un vero e proprio banco di prova della nostra direzione morale. Il post su X (ex Twitter) segna un’ulteriore uscita del Pontefice su tema IA, e definisce la tecnologia come parte di una lotta più ampia su ciò che diventiamo quando costruiamo sistemi che apprendono, decidono e operano su scala globale.

OpenAI e la sindrome del miliardario in cerca di sussidi
Il capitalismo ha un umorismo tutto suo. OpenAI, l’azienda che predica la rivoluzione dell’intelligenza artificiale come se fosse un atto di fede privata, ha bussato alla porta della Casa Bianca chiedendo garanzie federali sui prestiti per costruire data center e infrastrutture energetiche. Poi, quando la notizia è uscita, Sam Altman ha twittato che loro, in realtà, non vogliono “né hanno mai voluto” soldi pubblici. Peccato che la lettera ufficiale all’Office of Science and Technology Policy dica esattamente il contrario.
L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.
Dopo anni di corsa verso il gigantismo digitale, la nuova rivoluzione dell’intelligenza artificiale oggi sta nascendo proprio dalla miniaturizzazione. Tutti parlano di modelli sempre più grandi, di GPU che divorano energia e di cloud che crescono come nuove centrali elettriche del sapere. Eppure la domanda che comincia a farsi strada, pungente come un’iniezione di realtà, è un’altra: l’intelligenza deve davvero restare confinata nei data center o può diffondersi come una colonia di formiche digitali, ciascuna modesta ma tutte insieme straordinariamente efficaci?
La risposta arriva da un movimento tecnologico che ribalta l’assunto del potere centralizzato. Lo chiamano swarm intelligence, e la sua essenza è semplice quanto sovversiva: la forza non nasce da un singolo cervello onnisciente, ma dalla cooperazione di molte menti più piccole, distribuite e indipendenti. È la logica dell’intelligenza distribuita, l’idea che il pensiero collettivo, se ben orchestrato, possa superare la potenza del singolo gigante computazionale.
L’Europa, nel suo eterno ruolo di regolatore morale del mondo digitale, sembra aver perso un po’ di quella fiducia granitica che l’aveva spinta a varare l’AI Act, la prima legge globale sull’intelligenza artificiale. Adesso, a pochi mesi dall’entrata in vigore, Bruxelles starebbe valutando un rinvio parziale dell’applicazione delle norme, un “periodo di grazia” che suona più come un SOS politico che come una strategia. Il problema non è solo tecnico, è identitario: l’Unione che voleva guidare il mondo nell’etica dell’AI sta ora cercando di non far scappare i suoi stessi innovatori.
La notizia è passata come una scarica elettrica nei circoli tecnologici globali. Moonshot AI, la start-up cinese sostenuta da Alibaba e Tencent, ha annunciato il rilascio del suo nuovo modello open-source Kimi K2 Thinking, un colosso da un trilione di parametri che ha superato GPT-5 di OpenAI e Claude Sonnet 4.5 di Anthropic in diversi benchmark di ragionamento e capacità agentiche. In altre parole, un progetto open-source ha battuto le intelligenze artificiali chiuse più evolute del pianeta. Un dettaglio che, nel linguaggio dell’innovazione, suona come una dichiarazione di guerra.

OpenAI ha formalmente chiesto al governo degli Stati Uniti di ampliare il credito d’imposta previsto dal CHIPS Act per includere non solo i produttori di semiconduttori, ma anche l’intera filiera infrastrutturale necessaria all’intelligenza artificiale. Nella lettera firmata da Chris Lehane, capo degli affari globali, l’azienda invita la Casa Bianca a estendere l’Advanced Manufacturing Investment Credit ai data center, ai server AI e ai componenti della rete elettrica, come trasformatori e acciaio specializzato.
Il teatro globale dell’intelligenza artificiale si gioca oggi dentro un wafer di silicio grande quanto una mano. Mentre le borse oscillano e i capi di Stato recitano copioni di cooperazione, la vera partita tra Stati Uniti e Cina si misura in nanometri. Nvidia, l’azienda che più di ogni altra ha plasmato l’attuale rivoluzione dell’AI, si ritrova nel mezzo di una tensione tecnologica che somiglia sempre più a una guerra fredda fatta di transistor, embargo e dichiarazioni calibrate al millesimo di volt.