Quando Mark Zuckerberg parla di 600 miliardi di dollari in spese di capitale entro il 2028, non sta solo alzando l’asticella degli investimenti in infrastrutture digitali. Sta ridefinendo il concetto stesso di potere tecnologico. Meta Platforms, il gigante che molti avevano dato per invecchiato dopo il crollo del metaverso, sta tornando sulla scena globale con una strategia brutalmente concreta: costruire il futuro dell’intelligenza artificiale negli Stati Uniti, mattone dopo mattone, data center dopo data center.
Categoria: News Pagina 4 di 131
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
La notizia è passata come una scarica elettrica nei circoli tecnologici globali. Moonshot AI, la start-up cinese sostenuta da Alibaba e Tencent, ha annunciato il rilascio del suo nuovo modello open-source Kimi K2 Thinking, un colosso da un trilione di parametri che ha superato GPT-5 di OpenAI e Claude Sonnet 4.5 di Anthropic in diversi benchmark di ragionamento e capacità agentiche. In altre parole, un progetto open-source ha battuto le intelligenze artificiali chiuse più evolute del pianeta. Un dettaglio che, nel linguaggio dell’innovazione, suona come una dichiarazione di guerra.

OpenAI ha formalmente chiesto al governo degli Stati Uniti di ampliare il credito d’imposta previsto dal CHIPS Act per includere non solo i produttori di semiconduttori, ma anche l’intera filiera infrastrutturale necessaria all’intelligenza artificiale. Nella lettera firmata da Chris Lehane, capo degli affari globali, l’azienda invita la Casa Bianca a estendere l’Advanced Manufacturing Investment Credit ai data center, ai server AI e ai componenti della rete elettrica, come trasformatori e acciaio specializzato.
Il teatro globale dell’intelligenza artificiale si gioca oggi dentro un wafer di silicio grande quanto una mano. Mentre le borse oscillano e i capi di Stato recitano copioni di cooperazione, la vera partita tra Stati Uniti e Cina si misura in nanometri. Nvidia, l’azienda che più di ogni altra ha plasmato l’attuale rivoluzione dell’AI, si ritrova nel mezzo di una tensione tecnologica che somiglia sempre più a una guerra fredda fatta di transistor, embargo e dichiarazioni calibrate al millesimo di volt.
Advances in Threat Actor Usage of AI Tools
La sensazione non è solo di disorientamento, è di ribaltamento. Malware che chiede aiuto all’intelligenza artificiale mentre è in esecuzione non è fantascienza: è la realtà che Google ha descritto come una svolta operativa. Il concetto è semplice nella sua pericolosità. Un eseguibile non porta più tutto il proprio cervello dentro la scatola, ma telefona a un modello esterno per farsi scrivere o riscrivere parti del codice, produrre funzioni su richiesta e mascherare i propri segnali di identificazione. Il risultato è un avversario che muta in tempo reale, capace di aggirare difese progettate per regole statiche.
Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.
Il concetto che l’intelligenza artificiale sia un optional appartiene ormai al passato. Gartner, Inc. ha pubblicato la sua lista delle Top 10 Strategic Technology Trends per 2026, e lascia poco spazio ai dubbi: non si tratta più di sperimentazione ma di fondamento del modello di business. (Gartner) Quel che sorprende non è la presenza dell’AI quanto l’assetto strategico che la circonda: sicurezza, sovranità, collaborazione uomo-macchina.
C’è un’idea tanto affascinante quanto scomoda, espressa con lucidità e ironia da Marco Giancotti in un recente post (Aether Mug Subscribe newsletter.): forse gli ingegneri del software, nel tentativo di costruire programmi più intelligenti, hanno finito per scoprire un modo di rappresentare la mente umana. L’intuizione nasce dal parallelo tra il Unified Modeling Language e i meccanismi del pensiero: come se il nostro cervello ragionasse in diagrammi UML, con classi, relazioni e astrazioni. È un’immagine irresistibile, perché ci restituisce una verità troppo spesso ignorata: non programmiamo solo le macchine, programmiamo anche noi stessi.
Roma, la città che da millenni ha costruito imperi e plasmato culture, oggi prova a fare lo stesso con l’intelligenza artificiale. Non più solo capitale della storia, ma laboratorio del futuro, nodo strategico di una rete che intreccia startup, università, corporate e istituzioni in una nuova corsa al potere digitale. Mentre le grandi metropoli globali cercano di impadronirsi del linguaggio dell’AI, Roma decide di giocare d’anticipo e trasformarsi nel baricentro europeo della consapevolezza tecnologica. Il segnale arriva chiaro con IntelligentIA, evento che promette di accendere nella Capitale una discussione autentica, lontana dai luoghi comuni e dalle retoriche sulle macchine pensanti.

Il tempo dedicato alla discussione sull’Indo-Pacifico durante l’ultimo vertice dei ministri degli esteri dell’Unione Europea a Bruxelles è stato di appena sette minuti. Sette. È un dato che basterebbe da solo a raccontare la misura del disorientamento strategico del continente. L’Europa parla di autonomia, indipendenza e resilienza ma poi si perde in una conversazione lampo su uno dei dossier più cruciali del XXI secolo. Il resto del mondo, nel frattempo, si muove, firma accordi, stabilisce priorità e costruisce le architetture geopolitiche del futuro.
Il problema non è nuovo ma oggi è diventato strutturale. Mentre gli Stati Uniti e la Cina ridisegnano la mappa del potere globale, Bruxelles appare distratta, frammentata e sostanzialmente irrilevante. Eppure non mancano i proclami. Ogni settimana si invoca “l’Europa sovrana”, “l’autonomia strategica”, “la difesa dei nostri interessi”. Poi però la realtà bussa alla porta con una brutalità quasi didattica.

Sembra quasi un rituale ormai: ogni settimana un gigante tecnologico annuncia di aver innestato intelligenza artificiale generativa nel proprio ecosistema, come se fosse una nuova valuta dell’innovazione. Ma questa volta non parliamo di un esperimento marginale. Google, Amazon e OpenAI hanno appena alzato l’asticella, mostrando che l’IA non è più un’aggiunta, ma l’ossatura stessa dell’esperienza digitale globale. Il linguaggio dei mercati, delle storie e persino delle vacanze è diventato un unico codice, scritto da modelli linguistici e orchestrato da intelligenze che apprendono più velocemente di qualsiasi CFO o editor umano. La chiamano trasformazione, ma sa tanto di colonizzazione algoritmica.
Quando un consiglio di amministrazione approva un pacchetto di compensi da record mondiale, la domanda non è più se il CEO valga tanto, ma quanto il sistema sia disposto a farsi ipnotizzare da chi lo guida. Gli azionisti di Tesla hanno appena detto sì, con oltre il 75% dei voti, all’ennesima dimostrazione che la fede nel carisma di Elon Musk conta più dei numeri di bilancio. Non è una sorpresa, ma è una dichiarazione d’intenti: il capitalismo tecnologico non premia la prudenza, premia la narrativa.
Fin dall’incipit l’annuncio parte forte: «Stiamo introducendo nuovi aggiornamenti per i prodotti sell-side … per aiutare i publisher a risparmiare tempo, rafforzare le relazioni con gli inserzionisti e monetizzare più facilmente i contenuti». (vedi blog.google) Non è marketing soft: è una dichiarazione di guerra al tempo, alla complessità operativa e ai concorrenti nell’ad tech.
Il quadro che si apre davanti a noi non è una scena da film distopico di serie C, ma un mix perfetto di regolamentazione emergente, ambizioni finanziarie mastodontiche e tensioni etiche, tutto orchestrato da OpenAI (la “società”) sotto la guida di Sam Altman. Da un lato la compagnia propone ai legislatori americani un piano concreto per gli standard di sicurezza destinati ai minori nell’uso dell’intelligenza artificiale (“teen safety blueprint”). Dall’altro l’amministratore delegato dichiara che la società raggiungerà un tasso di giro d’affari annualizzato (“run-rate”) superiore ai 20 miliardi di dollari entro fine anno, con proiezione verso “centinaia di miliardi” entro i prossimi anni. Non è un film: è la realtà di un’impresa che vuole plasmare il futuro dell’AI… e anche il proprio destino economico.

Michael Talbot non era un mistico in cerca di visioni, ma un ricercatore indipendente che aveva osato porre la domanda più pericolosa della scienza moderna: e se la realtà non fosse reale? La sua teoria dell’universo olografico non era solo un elegante esercizio di immaginazione, ma una sfida diretta alla fisica, alla biologia e perfino alla medicina.
Sosteneva che ogni frammento del cosmo contiene l’intero universo, proprio come in un ologramma, e che la mente non è un sottoprodotto del cervello ma una porta di accesso a un campo più vasto di coscienza. L’idea, apparentemente poetica, è in realtà un colpo di maglio al materialismo su cui si è costruita la scienza moderna. Poi, in una curiosa coincidenza, Talbot morì improvvisamente subito dopo un’intervista in cui annunciava il suo nuovo libro: la guida pratica per applicare il modello olografico alla vita quotidiana. Un epilogo che molti trovarono inquietante, quasi il punto in cui la teoria si piega su sé stessa.
Il concetto che la OpenAI possa essere sull’orlo del baratro finanziario sembra provocatorio, ma l’analisi lo suggerisce con forza. Immagina una startup gigante che dichiara di avere solo 13 miliardi di entrate ma 1,4 mila miliardi di obbligazioni da affrontare. Ecco: Sam Altman ha reagito furiosamente alla domanda del fondo manager Brad Gerstner su come OpenAI pensasse di coprire queste obbligazioni.
L’intervento di Altman ha avuto toni da CEO in difesa, promettendo una crescita esponenziale della revenue: «Stiamo andando ben oltre quelle entrate… se vuoi vendere le tue azioni…» ha detto. Eppure dietro le quinte si intravede una strategia più sottile: ridurre i costi del finanziamento trasferendo il rischio sul contribuente americano. Il CFO Sarah Friar ha dichiarato durante una conferenza del The Wall Street Journal che le garanzie sui prestiti governativi “scaverebbero” nelle necessità di capitale per infrastrutture AI da un trilione di dollari.

Donald Trump ha sempre avuto un debole per la guerra verbale, ma questa volta la metafora è diventata geopolitica: ha definito i Democratici “kamikaze”, pronti a distruggere il Paese pur di non cedere politicamente. Una frase che sembra uscita più da un manuale di guerra psicologica che da un briefing alla Casa Bianca, ma che fotografa bene la tensione attuale a Washington. Lo shutdown USA è entrato nella storia come il più lungo di sempre, superando il precedente record di 35 giorni fissato dallo stesso Trump nel suo primo mandato. Una chiusura del governo che sa di déjà vu e che lascia sul campo 1,4 milioni di lavoratori federali, molti senza stipendio e altri obbligati a lavorare comunque, come se la fedeltà alla nazione potesse pagare l’affitto.
In un mondo in cui l’intelligenza artificiale sta rapidamente oltrepassando i limiti del “solo training”, Google lancia la settima generazione della sua unità di elaborazione tensoriale: la Ironwood TPU. Il termine “inference a larga scala” acquisisce un nuovo significato, e basta leggere qualche numero per capire che non siamo più nella logica delle incrementali ottimizzazioni. Google afferma che il chip può essere collegato in un superpod da 9 216 unità.
Da dove partire. Nel novembre 2023 la OpenAI ha licenziato improvvisamente il suo CEO Sam Altman ufficialmente perché “non era stato costantemente sincero nelle comunicazioni con il board”. Il licenziamento durò meno di una settimana: Altman rientrò, dopo che centinaia di dipendenti minacciarono la dimissione. Ma il cuore della questione, per chi ama l’analisi profonda, è: cosa aveva visto Sutskever che lo fece schierarsi con il board contro Altman, fino a produrre un memorandum di 52 pagine e testimoniarlo in deposizione?
A Milano, nel salone lucido e iperconnesso dell’Allianz MiCo, l’aria sapeva di parole chiave e caffeina. Tutti a parlare di AI, ma pochi a capire davvero che non si tratta più di un gadget per stupire, bensì del nuovo codice genetico della comunicazione. Intersections 2025, evento che ha messo insieme i mondi di marketing, creatività e tecnologia, si è trasformato in un osservatorio in tempo reale del presente digitale. I feed social lo hanno amplificato a ritmo di hashtag, tra un entusiasmo contagioso e un cinismo da veterani del settore. Perché l’intelligenza artificiale non è più la novità, è l’infrastruttura invisibile di tutto ciò che comunichiamo.
Fa pensare che Elon Musk, l’uomo che predica la difesa della libertà umana contro l’AI, finisca al centro di una storia che sembra uscita da una distopia di Philip K. Dick. Secondo un’inchiesta del Wall Street Journal, i dipendenti di xAI sarebbero stati costretti a fornire i propri dati biometrici per addestrare “Ani”, la chatbot femminile con estetica da anime giapponese e modalità NSFW, lanciata all’interno del servizio “SuperGrok” di X, dal costo di 30 dollari al mese.
La Cina ha appena alzato il sipario su una delle mosse più radicali dell’era post-silicio: una direttiva che impone ai data center finanziati dallo Stato di utilizzare esclusivamente chip AI prodotti internamente. Un ordine perentorio che, a prima vista, sembra un atto di patriottismo industriale, ma che in realtà è una mossa chirurgica dentro la guerra fredda tecnologica che si combatte sotto il rumore dei server. Il documento, emesso da Pechino, stabilisce che i progetti pubblici di data center con meno del 30% di completamento dovranno rimuovere tutti i chip stranieri già installati, mentre quelli più avanzati verranno analizzati uno per uno. Una pulizia selettiva che colpisce nel cuore l’architettura globale dell’intelligenza artificiale.
La notizia è semplice Ma Il messaggio è inquietante: Microsoft e Arizona State University hanno aperto un laboratorio in scala ridotta dove mettere a nudo i futuri aiutanti digitali e scoprire che non sono ancora pronti ad andare in autonomia. Source Microsoft
Il progetto, battezzato Magentic Marketplace, è una piattaforma simulata aperta al pubblico che riproduce un mercato bidirezionale dove agenti che rappresentano consumatori dialogano con agenti che rappresentano esercizi commerciali per cercare, negoziare e chiudere transazioni. Il codice sorgente è disponibile e l’idea è tanto pratica quanto spietata: dare alle intelligenze artificiali uno spazio neutro per sbagliare in silico prima che sbaglino nel mondo reale.
Apple ha deciso di comprare cervelli, e lo fa con la consueta eleganza del gigante che preferisce non sporcarsi le mani: un miliardo di dollari all’anno per affittare l’intelligenza artificiale di Google. Una partnership che, letta con attenzione, racconta molto più di quanto Cupertino voglia ammettere. Racconta la resa temporanea di un impero tecnologico che per anni ha predicato la superiorità del controllo totale, ma che ora si piega di fronte all’inarrestabile complessità del nuovo paradigma AI.
Esiste un momento preciso in cui l’intelligenza artificiale smette di essere un assistente e diventa un collega. Quel momento, per Google, si chiama Gemini Deep Research. Non è più il solito chatbot travestito da oracolo, ma un agente capace di pensare, leggere, scrivere e soprattutto collegare. Non risponde più soltanto alle domande, ma costruisce dossier, analisi di mercato e rapporti competitivi incrociando dati che vivono nelle nostre email, nei documenti, nelle chat e nel web. In altre parole, Gemini non cerca soltanto: elabora, interpreta e produce conoscenza strutturata. Una svolta silenziosa ma destinata a cambiare radicalmente il modo in cui un’azienda ragiona.
Nel lessico della modernità digitale c’è un concetto che ribolle sotto la superficie, tanto invisibile quanto determinante: la responsabilità morale distribuita. Luciano Floridi lo aveva intuito con chirurgica lucidità, anni prima che l’intelligenza artificiale diventasse l’ossessione del nostro tempo. In un mondo popolato da reti di agenti umani, artificiali e ibridi, la colpa smette di essere un fatto individuale per diventare una proprietà emergente del sistema. La morale, quella classica fatta di intenzioni e colpe, implode davanti alla meccanica impersonale delle decisioni algoritmiche. Non è un dramma nuovo, ma è diventato urgente.
La Silicon Valley, dopo aver trascorso due decenni a insegnarci che “il cliente ha sempre ragione”, ora stia discutendo se il cliente conti davvero qualcosa. Il concetto di agency personale la capacità di decidere autonomamente, senza intermediari è diventato improvvisamente materia di dibattito, ora che gli “agenti” non sono più umani, ma algoritmi che prendono decisioni al posto nostro. Gli agenti di intelligenza artificiale sono l’evoluzione logica dell’automazione: software capaci di agire, negoziare e acquistare, senza chiedere il permesso al proprio creatore. Ed è qui che la faccenda diventa interessante, e potenzialmente pericolosa, per le aziende che li sviluppano.
Wall Street ha l’aria di chi ha dormito poco e male. Non c’è bisogno di leggere tra le righe dei report finanziari per capire che l’umore degli investitori è in bilico tra euforia tecnologica e paura di un’altra bolla in stile dot-com. Questa volta, però, la parola magica che scatena isteria euforia e vendite impulsive non è più “internet”, ma “intelligenza artificiale”. Tutto ciò che la contiene nel comunicato stampa di un’azienda fa alzare il titolo. Tutto ciò che ne resta fuori lo fa crollare. DoorDash, per esempio, l’ha scoperto sulla propria pelle.
Il CEO di Nvidia, Jensen Huang, ha lanciato il suo avvertimento più forte: secondo lui la Cina è destinata a vincere la corsa globale all’intelligenza artificiale. In un’intervista al Financial Times, Huang ha espresso frustrazione per la crescente pressione regolatoria negli Stati Uniti, mentre Pechino sovvenziona energia e infrastrutture per potenziare i propri colossi tecnologici.
In Australia nasce Charlotte, un robot 3D semi-autonomo che promette di cambiare radicalmente il modo in cui costruiamo, sulla Terra e forse un giorno sulla Luna. Creato da Earthbuilt Technology, è capace di realizzare curve, archi e cupole con una libertà geometrica impossibile per le tecniche tradizionali, riducendo costi e impatto ambientale. Il CEO Jan Golembiewski lo definisce “un game changer globale”, convinto che Charlotte possa rendere l’edilizia economica e a zero emissioni. Un sogno di cemento, codice e ambizione spaziale.
Google sta valutando di spingere con forza su Anthropic, la startup fondata da ex ricercatori di OpenAI che ha dato vita alla famiglia di modelli linguistici Claude. Secondo Business Insider, il gigante di Mountain View sarebbe in trattative preliminari per un nuovo round di finanziamento che potrebbe far lievitare la valutazione di Anthropic oltre i 350 miliardi di dollari, cifra che trasformerebbe la società in una delle più costose e strategiche del settore. Una mossa che, tradotta in termini geopolitici dell’AI, significa soltanto una cosa: Google non intende lasciare il terreno a Microsoft e Nvidia.
Nel cuore ipercompetitivo dell’industria automobilistica cinese, Xpeng ha deciso di riscrivere il concetto di mobilità intelligente, e di farlo con una certa spavalderia. Non si accontenta più di giocare nel campionato degli “smart EV”. Ora vuole diventare il simbolo di una nuova era in cui auto, robot e persino veicoli volanti convivono in un ecosistema guidato dall’intelligenza artificiale. Nel 2026, promette il CEO He Xiaopeng, i cittadini cinesi potranno salire su un robotaxi interamente autonomo, prenotabile tramite Amap, l’app di mappe di Alibaba. Sarà il debutto commerciale di un’idea che fonde visione, linguaggio e azione in un solo modello cognitivo: il VLA.

Google non sta solo aggiornando Maps. Sta fondamentalmente riscrivendo il concetto stesso di navigazione, trasformando quello che un tempo era un semplice strumento di orientamento in un copilota digitale dotato di intelligenza propria. Con l’integrazione di Gemini, l’assistente AI di nuova generazione, la mappa diventa finalmente conversazionale, predittiva e capace di rispondere in modo naturale, mentre il conducente guida, chiede, ascolta e decide in tempo reale.
Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.
La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.
Il paradosso dell’intelligenza artificiale è che più diventa autonoma, più rivela la dipendenza dai limiti umani che voleva superare. OpenAI Atlas, il nuovo browser che integra ChatGPT nella navigazione in tempo reale, nasce come strumento per esplorare il web con la potenza di un linguaggio naturale. Ma dietro la facciata dell’efficienza cognitiva, Atlas sta già ridefinendo la frontiera tra accesso all’informazione e manipolazione del sapere, tra libertà digitale e censura algoritmica. Il suo comportamento selettivo nel navigare certi siti web, come rivelato dal Tow Center for Digital Journalism della Columbia University, ha aperto una crepa profonda nel mito della neutralità tecnologica

E’ commovente, per non dire altro, nel vedere i veterani del SEO tradizionale perdere la bussola davanti alla Search Generative Experience di Google. Per anni hanno dominato la scena con formule magiche, checklist di ottimizzazione e parole chiave ripetute come rosari digitali. Poi è arrivato il nuovo paradigma, quello che non guarda più alle keyword ma al significato, e improvvisamente i maghi del traffico si sono ritrovati a recitare incantesimi in una lingua che nessuno, nemmeno Google, ascolta più. Il SEO semantico non è una moda, è un cambio di specie. E chi non si adatta, evapora.
Nel mondo dell’intelligenza artificiale ogni settimana è un terremoto, ma questa volta il sisma ha un epicentro geopolitico. Due nuovi strumenti di programmazione generativa lanciati da aziende americane, SWE-1.5 di Cognition AI e Composer di Cursor, hanno scatenato un dibattito feroce: potrebbero essere stati costruiti su modelli cinesi, in particolare sulla serie GLM sviluppata da Zhipu AI, la società di Pechino che sta rapidamente emergendo come il “Google cinese” del machine learning. Il problema non è tanto tecnico quanto etico e simbolico. È la nuova frontiera di una guerra fredda digitale in cui l’intelligenza artificiale open source diventa terreno di scontro fra culture, modelli di governance e potere economico.
