Una volta, nei data center, si switchava tutto in Layer 2. Ethernet ovunque. Cavi come spaghetti, STP (Spanning Tree Protocol) che cercava di non farti incendiare le topologie a loop, e una visione ingenua del networking: broadcast ovunque, MAC tables che strabordavano come il caffè dimenticato sul fornello. Il sogno? Una gigantesca LAN piatta, con ogni server che poteva “vedere” ogni altro server, come se fossimo tutti amici al bar. La realtà? Un incubo di scalabilità, resilienza farlocca e troubleshooting stile CSI Miami.
Categoria: News Pagina 12 di 87
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

La scena è questa: un uomo con un occhio nero, un figlio di nome “X”, e una valigetta di pillole. No, non è una puntata di Black Mirror. È l’America del 2024, ed Elon Musk si aggira per la Casa Bianca come uno Steve Jobs con l’hangover. Il New York Times sgancia la bomba: Musk avrebbe fatto uso intensivo di ketamina durante la campagna elettorale, con tanto di effetti collaterali da manuale – come i ben noti problemi alla vescica. Ma c’è di più. Ci sarebbero anche funghi allucinogeni, ecstasy e un’apoteosi da party Ibiza-style camuffata da crociata di efficienza statale.

Il teatro delle guerre commerciali ha una nuova puntata, e come sempre, Donald Trump è il protagonista con la faccia di bronzo e il pollice sul pulsante delle tariffe. Questa volta il bersaglio si chiama acciaio, il metallo simbolo dell’industria pesante e delle economie che vogliono fingere di essere ancora sovrane. Dal 25% al 50% di dazio sulle importazioni: una mossa che il presidente USA ha annunciato con la stessa soddisfazione con cui un bambino mostra il suo nuovo martello, pronto a colpire qualsiasi cosa si muova.

Mentre i riflettori dei media generalisti si limitano a menzionare Abilene, Texas, come se fosse solo l’ennesimo cantiere tech in mezzo al nulla, chi ha orecchie per intendere — e un conto in banca legato alla rivoluzione AI — sa che Stargate è molto più di una joint venture infrastrutturale. È una dichiarazione di guerra tecnologica. Una sfida frontale a chi detiene oggi il controllo delle risorse computazionali mondiali. Un affare da 500 miliardi di dollari che ridisegna gli equilibri tra chipmaker, hyperscaler e i nuovi “costruttori di Dio”.

Benvenuti nell’era del consenso implicito dove l’Opt-OUT è la nuova religione e l’Opt-IN è un fossile giuridico. Mentre dormivamo (forse), Google ha deciso che le sue AI, vestite da assistenti gentili e disinteressate, inizieranno *Now in US( a riassumere automaticamente le nostre email su Gmail Workspace. Sottolineo: automaticamente. Nessuna richiesta esplicita. Nessuna spunta. Nessuna notifica in stile “accetti?”.
La notizia è passata sotto il radar con la delicatezza di una zanzara in una fabbrica di turbine: Gemini, il nuovo volto carino e pseudoumano dell’intelligenza artificiale made in Mountain View, inizierà a produrre sommari automatici dei thread più lunghi direttamente sopra i messaggi nella versione mobile di Gmail. Niente di scandaloso, diranno i più. Solo un’altra feature “utile” pensata per “farci risparmiare tempo”. Ma qui il tempo che si risparmia è quello necessario a Google per chiederti il permesso.

Nel grande teatro della proprietà intellettuale, Getty Images recita il ruolo dell’eroe stanco ma determinato, intento a difendere la sua galleria di milioni di immagini da un nemico nuovo, veloce e sfuggente: l’intelligenza artificiale generativa.

Mentre l’opinione pubblica gioca ancora con ChatGPT chiedendogli ricette di pasta e battute da stand-up comedian, nei sotterranei strategici di OpenAI si sta scrivendo un copione completamente diverso. Un documento interno, trapelato o diciamocelo, strategicamente “trapelato” e citato in un’indagine del Department of Justice, ci regala una sbirciata dentro al motore di un’auto che non sta solo accelerando. Sta cambiando strada. E nessuno, ma proprio nessuno, sta più guardando il volante.

Hugging Face ha appena fatto qualcosa che i soliti colossi della robotica sognano di fare da anni, ma con un twist che sa di rivoluzione e perché no di sana provocazione tecnologica. Due robot umanoidi, sì, ma open source. Sembra una frase da manuale del futurista ingenuo, invece è l’annuncio che potrebbe scardinare decenni di dogmi e segreti industriali custoditi gelosamente in laboratori blindati.
Non è un segreto: il mondo della robotica umanoide è un feudo di giganti che costruiscono imperi dietro porte chiuse, cifrando ogni singola riga di codice, ogni algoritmo di movimento come se fosse oro nero. Eppure, Hugging Face – conosciuta per la sua piattaforma di intelligenza artificiale collaborativa ha deciso di sparigliare le carte presentando due robot completamente open source. Questo significa che chiunque abbia un minimo di dimestichezza può scaricare software, migliorare, personalizzare e, soprattutto, sviluppare nuove applicazioni senza chiedere il permesso a nessuno.

Sembra una battuta da cabaret futurista, ma è tutto reale: Google AI Overviews, il fiore all’occhiello dell’era post-search, non sa nemmeno in che anno siamo. Letteralmente. A dodici mesi dal suo debutto trionfale, l’intelligenza artificiale generativa di Mountain View continua a inciampare su dettagli che persino un aspirante stagista umano non sbaglierebbe. Il 2025? Un mistero. Le date? Variabili quantistiche. Il contesto? Fluttuante come una risposta di ChatGPT usato senza prompt ben strutturati.
Smettiamola di chiamarlo “search”. Davvero. Quello che Perplexity ha appena scaricato sotto il nome innocuo di Labs è un’esplosione termonucleare nella palude dell’informazione online. Dimentica la barra di ricerca stile anni ‘00 e preparati a un assistente AI con la sindrome di Tesla: onnipotente, sempre acceso, e probabilmente troppo intelligente per il tuo bene.
Perché Labs non cerca. Labs capisce. Labs costruisce. Labs fa il lavoro sporco. E lo fa in una sola query, iterativamente, come se l’input utente fosse solo un pretesto per dimostrare che il futuro non ha più bisogno di mouse, né di umani troppo lenti.

Non è la sceneggiatura di una satira politica, è la realtà post-verità che ci meritiamo. Un documento federale la punta di lancia dell’iniziativa “Make America Healthy Again” (MAHA), voluta da Robert F. Kennedy Jr. è stato smascherato come un Frankenstein di fonti fasulle, link rotti e citazioni generate da intelligenza artificiale, con tutti gli errori tipici di una generazione automatica mal supervisionata. No, non è un errore di battitura umano: sono proprio quelle impronte digitali inconfondibili dell’AI, le oaicite, a tradire la genesi siliconica del documento.
La keyword è report MAHA, le secondarie ovvie: ChatGPT, declino dell’aspettativa di vita negli USA. Ma qui il problema non è solo tecnico, è ontologico. Se la verità ufficiale è un’illusione generata da un modello linguistico, cosa rimane della governance democratica? Un reality show scritto da algoritmi, supervisionato da stagisti?

Ci sono dossier, e poi ci sono i dossier. Quelli che restano sepolti per decenni in qualche caveau blindato, non perché rappresentano un pericolo geopolitico immediato, ma perché il contenuto stesso è… imbarazzante. Non per la verità che rivelano, ma per le domande che sollevano. Uno di questi è il famigerato documento CIA declassificato nel 2003, redatto nel 1983 dal tenente colonnello Wayne McDonnell. Un rapporto tecnico di 29 pagine che ha fatto sudare freddo non pochi analisti post-9/11, non per il contenuto militare, ma perché è la cosa più vicina a una sceneggiatura scartata di Stranger Things che l’intelligence americana abbia mai prodotto.
Lo chiamavano il “Gateway Experience”. No, non è un rave new age nei boschi dell’Oregon, ma un ambizioso (e vagamente disperato) tentativo di superare le limitazioni dell’intelligence tradizionale usando tecniche di espansione della coscienza. L’obiettivo? Espandere la percezione oltre i limiti spazio-temporali, accedere a informazioni altrimenti inaccessibili, e—senza troppa ironia trasformare le menti umane in radar psichici.
C’era una volta, nel mondo austero della programmazione, un’epoca in cui il codice era religione, e i dev erano i suoi preti. Solo gli iniziati, quelli che avevano sacrificato anni della propria vita tra manuali, riga di comando e Stack Overflow, potevano avvicinarsi al sacro fuoco della creazione digitale. Poi, come sempre accade quando la gerarchia si fa troppo rigida, arriva la rivoluzione.
Rick Rubin, produttore musicale con la barba da profeta e un palmarès che potrebbe schiacciare qualsiasi ego da Silicon Valley, ci regala un’analogia che squarcia il velo dell’ipocrisia tech. Il vibe coding, dice, è il punk rock della programmazione. Non servono più lauree in ingegneria, non servono anni a lambiccarsi sull’algoritmo perfetto. Bastano tre accordi e un’idea. Bastano le mani sporche e la voglia di dire qualcosa. Sì, anche se non sei Linus Torvalds.

Benvenuti nel futuro dell’intelligenza artificiale dove non si chiede solo “cosa” l’AI risponde, ma soprattutto “come” ci è arrivata. Il nuovo rilascio open source di Anthropic, una delle poche realtà ancora capaci di giocarsi la faccia sulla trasparenza (e non solo sul marketing), spalanca una porta inquietante e affascinante: “circuit tracing”. Una parola che suona tecnica, innocua. Ma sotto c’è una rivoluzione.
Altro che “scatole nere”. Qui si inizia a smontare il cervello stesso del modello. Pezzo per pezzo. Nodo per nodo. Pensiero per pensiero.
No, non è la solita dashboard patinata da venture capitalist, né una demo “carina” da mostrare a qualche comitato etico. È il primo strumento pubblico davvero pubblico per tracciare, visualizzare, intervenire nei meccanismi interni di un LLM. Il cuore dell’operazione sono i grafici di attribuzione. Sembrano diagrammi, ma sono raggi X cognitivi. Ti dicono quale parte del modello ha pensato cosa, e in quale momento.

Nel mondo surreale della governance americana, dove ormai la Silicon Valley è più presente nei corridoi del potere che nelle linee di codice, il sipario è appena caduto su un altro atto tragicomico: Elon Musk abbandona l’amministrazione Trump. Ma il vero spettacolo inizia dopo il suo tweet.
Meno di 24 ore e la catena di dimissioni diventa virale. Steve Davis, genio austero della razionalizzazione economica e uomo ombra di Musk da anni, chiude la porta. Lo segue James Burnham, avvocato e stratega giuridico dietro DOGE (che non è la crypto, tranquilli, ma il fantomatico Dipartimento per l’Efficienza Governativa). Infine, Katie Miller, portavoce con pedigree trumpiano, che ha deciso di saltare giù dal carro per imbarcarsi direttamente sull’astronave Musk.

Siamo ormai nel pieno del barocco dell’intelligenza artificiale. Gli LLM (Large Language Models) sono diventati le nuove cattedrali digitali, costruite con miliardi di parametri e sorrette da GPU che sembrano più reattori nucleari che schede video. In questo panorama di potenze mostruose, dove i soliti noti (OpenAI, Google, Anthropic) dettano legge, si insinua un nome meno blasonato ma decisamente audace: DeepSeek-R1. Non solo open source, ma anche titanico 671 miliardi di parametri, per chi tiene il conto.
La provocazione è chiara: “possiamo competere con GPT-4o, Gemini e soci… e magari anche farlo girare nel vostro datacenter, se siete abbastanza matti da provarci”. Ma è davvero così? Ecco dove entra in scena Seeweb, con la sua Cloud GPU MI300X una vera bestia, con 8 GPU AMD MI300X e un terabyte e mezzo di VRAM a disposizione. E abbiamo deciso di scoprire se tutto questo è solo hype o se c’è ciccia sotto il cofano.

Se pensavate che l’epoca delle tigri asiatiche fosse finita con l’industria manifatturiera, DeepSeek è qui per ricordarvi che oggi il vero impero si costruisce su tensor, modelli linguistici e centri di calcolo raffreddati a liquido. Il nuovo modello R1-0528, evoluzione muscolare e cerebrale del già notevole R1 lanciato a gennaio, è la risposta cinese ai soliti noti: OpenAI, Google, Meta, e per non farci mancare nulla, anche Anthropic.
Ma la vera notizia non è che DeepSeek abbia fatto l’upgrade. È come lo ha fatto, quanto ha osato, e soprattutto perché oggi dovremmo tutti smettere di ridere quando sentiamo “AI cinese”.
Intanto, due parole su hallucinations: no, non parliamo del viaggio lisergico di un algoritmo impazzito, ma dell’incapacità cronica dei LLM (Large Language Models) di distinguere verità da delirio plausibile. DeepSeek sostiene di aver ridotto questi deliri del 50%. Non “un po’ meglio”, ma metà del casino. Questo, nella scala degli upgrade dell’AI, è tipo passare da Chernobyl a una centrale con l’ISO 9001: serve rispetto.

C’è qualcosa di sublime e tragicomico nel vedere il New York Times – che solo pochi mesi fa gridava allo scippo intellettuale puntando il dito contro OpenAI e Microsoft – ora stringere un patto con l’altro colosso della Silicon Valley, Amazon. Non per vendere copie, ovviamente, quelle sono un ricordo sbiadito, ma per fornire contenuti alla macchina famelica dell’intelligenza artificiale. Notizie, ricette, cronache sportive: tutto in pasto ad Alexa+ e ai modelli linguistici che l’e-commerce ha deciso di rispolverare per la sua guerra (tardiva) nell’arena dell’AI generativa.
“Allinea il nostro lavoro a un approccio deliberato che garantisce il giusto valore,” recita il memo ai dipendenti firmato da Meredith Kopit Levien, CEO del Times. Traduzione: meglio vendere che essere saccheggiati gratis. È il principio del “se non puoi batterli, fatturaci sopra”.

Hai mai chiesto a un idiota di pianificarti una vacanza? No? Bene. Google NotebookLM sì, lo ha fatto. Con stile, certo. Con linguaggio fluente, impeccabile. Peccato che ti fa perdere l’aereo, come è successo a Martin Peers. Data sbagliata. Di soli 24 ore. Roba da vacanza annullata o divorzio anticipato.
Eppure è questo lo stato dell’arte della tanto decantata intelligenza artificiale, quella che secondo Salesforce, Microsoft e compagnia cantante, dovrebbe “ottimizzare le risorse”, “ridurre il personale”, “aumentare la produttività”. Ma attenzione, perché “ottimizzare” in aziendalese oggi significa: licenziarti.

C’è una data di scadenza scritta a matita (ma sempre più marcata) sull’attuale paradigma di addestramento dell’intelligenza artificiale: quello basato su dati umani. Libri, articoli, codici, commenti, tweet, video, wiki, slide universitarie, call center, forum obsoleti di Stack Overflow, blog dimenticati e refusi di Wikipedia… Tutto macinato, frullato, digestato per alimentare il mostro semantico dei Large Language Models. Ma la festa sta per finire. E la domanda, quasi da evangelisti all’ultimo talk di una conferenza AI, rimbalza ovunque: cosa succederà quando i dati umani non basteranno più?

A volte penso che se l’umanità dovesse collassare domani, la sua ultima trasmissione sarebbe una gif di un gatto in slow motion su TikTok, caricata a 8K via fibra ottica. E se non arriverà, sarà colpa del bandwidth o meglio, della sua agonia.
Viviamo in un paradosso digitale. Da una parte, le infrastrutture dell’internet sembrano opere divine: cavi sottomarini che attraversano oceani, fotoni che danzano lungo fibre di vetro sottili come un capello, switch che operano in nanosecondi. Dall’altra parte, una videocamera di sorveglianza nel tuo frigorifero può causare congestione di rete perché sì, anche lei vuole parlare con un server in Oregon.
Il problema della banda larga non è una novità. È una valanga tecnologica che abbiamo deciso di ignorare, mentre tutto e intendo tutto: lavatrici, auto, sex toys, bambini, animali domestici, dispositivi medici si connette al cloud, che di “etereo” ha solo il nome. La verità è che il cloud è fatto di hardware infernale, con un cuore pulsante che si chiama fibra ottica. Ed è qui che entra in scena una novità tanto invisibile quanto rivoluzionaria: l’amplificatore ottico svedese.

Non lo dicono ancora ufficialmente, ma la tensione è palpabile. Nvidia è finita nel mezzo di una guerra che non ha voluto combattere, ma da cui non può uscire. Il gigante dell’intelligenza artificiale, la fabbrica di chip più ambita del pianeta, ha appena fatto una mezza ammissione: il chip AI per la Cina non è pronto. Tradotto: l’America ha colpito, e Nvidia sta ancora cercando di capire dove sanguina.
Jensen Huang, CEO con la giacca di pelle e lo sguardo da filosofo californiano, lo ha detto durante l’ultima earnings call con la freddezza tipica di chi sa che ogni parola sarà sezionata da analisti, burocrati e lupi di Wall Street. “Non abbiamo nulla da annunciare al momento”, ha detto, lasciando intendere che qualcosa bolle in pentola, ma che per ora il fuoco è spento. O meglio: bloccato da Washington.

Benvenuti nell’era dell’intelligenza artificiale dove l’unico limite non è l’etica, né la regolamentazione, ma il wattaggio. Se pensavate che il mining di Bitcoin fosse il campione mondiale dell’inutilità energetica su scala industriale, sappiate che c’è un nuovo concorrente affamato in pista: l’AI. Quella che vi risponde, vi suggerisce ricette, vi scrive email e che – ironia suprema – vi consiglia di ridurre la vostra impronta ecologica mentre brucia energia come una Las Vegas digitale.
Secondo un’analisi pubblicata sulla rivista Joule da Alex de Vries-Gao, noto per aver tenuto sotto controllo per anni il disastro energetico delle criptovalute su Digiconomist, l’AI sta rapidamente prendendo il testimone energetico lasciato libero da Ethereum. Quest’ultima, ricordiamolo, è passata a un sistema di validazione che consuma il 99.988% in meno di energia. Un esempio virtuoso, certo. Ma che pare aver ispirato pochi.
De Vries-Gao, armato di pazienza accademica e sarcasmo implicito, ha usato una tecnica che definisce “triangolazione” per stimare il consumo energetico dell’AI. Perché le big tech, ovviamente, non sono molto inclini a dichiarare apertamente quanta energia divorano i loro modelli linguistici e visionari. Troppa vergogna, o forse solo troppo profitto per mettersi a contare i kilowatt.
Trent’anni e non sentirli: Aiip festeggia, l’Internet italiano resiste 🇮🇹
Oggi, nella sfarzosa Sala della Regina a Montecitorio dove di solito riecheggiano discorsi impolverati e cerimonie da Prima Repubblica è andata in scena una celebrazione che, in un Paese che ama seppellire l’innovazione sotto regolamenti arcaici, ha il sapore della piccola rivoluzione.
Trent’anni di Aiip. L’Associazione Italiana Internet Provider. Fondata quando i modem facevano rumore, i bit costavano caro e parlare di “concorrenza” nel settore telecom era un eufemismo. O una bestemmia. Eppure eccola lì, viva, vegeta, e paradossalmente più lucida di molti dei suoi (presunti) eredi digitali.
E no, non è la solita autocelebrazione da ente stanco. Perché Antonio Baldassarra che non si limita a esserci, ma ci mette del suo è salito sul palco con quella combinazione rara di competenza tecnica e provocazione lucida che solo chi ha il coraggio di dire la verità riesce a maneggiare.
“Il futuro non si prevede, si costruisce”, ha detto. Chi lavora con la rete lo sa: non si tratta solo di cavi e pacchetti IP, ma di visione. Di scegliere da che parte stare. E Aiip, in questi decenni, ha fatto una scelta netta: quella della libertà, della neutralità, della concorrenza vera.
Benvenuti nel capitalismo 3.0, dove gli affitti non li decidono più i padroni di casa, ma una riga di codice. E non un codice qualunque: quello di RealPage, la software house accusata di aver trasformato la legge della domanda e dell’offerta in una simulazione truccata. Il concetto chiave? Rent algorithm, condito da intelligenza artificiale e da una silenziosa collusione tra giganti immobiliari. Il tutto sotto l’occhio ammiccante di legislatori più interessati ai budget dei lobbisti che alle bollette dei cittadini.
E ora, a rincarare la dose, spunta una proposta che suona come uno scudo legislativo su misura: un emendamento infilato nel disegno di legge di riconciliazione di bilancio dei Repubblicani che, udite udite, vieterebbe agli Stati americani di regolamentare l’IA per i prossimi dieci anni. Dieci. Come dire: fatevi prendere per il collo da un algoritmo e zitti per un decennio. Perché? Perché i padroni del silicio vogliono il campo libero per “ottimizzare” leggi: automatizzare l’avidità.

Google ha deciso che no, non ti meriti l’intelligenza artificiale offline.
Non più, almeno.
Il toolkit che permetteva di eseguire modelli open-source localmente, in edge, senza cloud, è stato abbandonato. Smantellato. Eliminato con la nonchalance tipica delle Big Tech quando qualcosa diventa troppo utile per essere libero.

C’è un nuovo cavallo da corsa nell’ippodromo dell’AI generativa, e non sta giocando pulito. Si chiama Codestral Embed e lo ha rilasciato Mistral, quel laboratorio francese che sta diventando la nemesi europea di OpenAI. Ma attenzione: questa volta non si tratta di un LLM da palco, ma di qualcosa di più sottile e micidiale un modello di embedding specializzato per il codice, e la notizia è che surclassa OpenAI e Cohere nei benchmark reali, quelli che contano per chi vive scrivendo codice, non post su LinkedIn.
Mistral non sta più semplicemente inseguendo. Sta mordendo le caviglie del leader e, ironicamente, lo fa usando un’arma “da retrobottega”: un embedder. Lontano dai riflettori, vicino ai developer.

C’è un silenzioso ma potentissimo colpo di stato in atto nei corridoi digitali di Google Workspace. Lo chiamano Gemini in Drive, e la sua missione è semplice quanto devastante per l’antico rituale del “guardarsi il video della riunione persa”. Ora lo fa lui. Lo guarda lui. E ti dice anche quello che ti serve sapere, senza che tu debba perdere mezz’ora della tua vita a fissare slide mosce e volti smarriti in videocall.
La novità è semplice nella sua superficie ma profonda nel suo impatto: Gemini ora riassume anche i video archiviati su Google Drive, dopo aver già colonizzato documenti e PDF con le sue sintesi algoritmiche. C’è un chatbot, ovviamente, con quella faccia finta-amichevole da assistente che “ti aiuta”, ma dietro c’è il motore semantico di Google che comincia a comprendere i contenuti visivi e trasformarli in azione testuale.

La notizia è di quelle che fanno alzare il sopracciglio anche ai più abituati al cinismo del capitalismo digitale. Il New York Times, simbolo storico del giornalismo d’élite, ha stretto un accordo pluriennale con Amazon per concedere in licenza la propria intelligenza editoriale. Tradotto: articoli, ricette, risultati sportivi e micro-pillole informative verranno digeriti, frammentati e recitati da Alexa, il pappagallo AI che ti sveglia la mattina e ti ricorda che hai finito il latte. E ovviamente, serviranno anche per allenare i cervelli artificiali di Amazon. Così, con un colpo solo, Bezos si compra l’eloquenza della Gray Lady e un po’ del suo cervello.
Certo, l’operazione viene incorniciata nella retorica del “giornalismo di qualità che merita di essere pagato”, ma sotto la lacca da comunicato stampa si intravede chiaramente il vero motore: una guerra di trincea tra editori tradizionali e giganti dell’IA per stabilire chi paga chi, quanto e per cosa. Dopo aver querelato OpenAI e Microsoft per “furto su larga scala” di contenuti più di qualche milione di articoli usati per addestrare modelli linguistici il New York Times si è infilato nel letto con un altro dei grandi predatori della Silicon Valley.

ITALIC: An Italian Culture-Aware Natural Language Benchmark
Ecco, ci siamo. ITALIC. Il benchmark “cultura-centrico” nato in Italia per misurare la comprensione linguistica e culturale degli LLM. E già dal nome parte l’equivoco: ITALIC sembra più un font che un dataset. Ma dentro c’è molto di più: diecimila domande prese da concorsi pubblici, test ministeriali, esami militari, con un gusto tutto italiano per l’iper-regolamentazione e l’esame a crocette. Una macchina perfetta per replicare il labirinto normativo e semiotico dello stivale. Ma c’è un punto che non possiamo ignorare: è davvero un buon lavoro o solo un’altra torre d’avorio accademica travestita da AI progressista?
Il sospetto del “bias italiano”, di quel provincialismo digitale travestito da resistenza culturale, è legittimo. ITALIC non nasce per allenare ma per misurare, e misura solo una cosa: quanto un modello capisce l’italiano “di Stato”, quello dei quiz del Ministero, delle domande sulla Costituzione, delle nozioni da manuale di scuola media. Non c’è nulla di “colloquiale”, nulla di “dialettale”, nulla di quella viva e ambigua lingua parlata che ogni giorno sfugge al formalismo. Quindi sì, è un benchmark italiano, ma è anche profondamente istituzionale.
Benvenuti nell’epoca in cui anche il vostro cane potrà dirigere un cortometraggio, purché mastichi qualche comando testuale e abbia accesso a Runway o a Google Veo. Il cortometraggio My Robot & Me è il manifesto involontario o forse sottilmente intenzionale di questa nuova era: l’AI può fare (quasi) tutto, ma la creatività resta l’ultimo baluardo umano. Per ora.
Parliamoci chiaro: la storia parte con un incipit da presentazione TEDx. “Silenzia il cellulare, mastica piano il popcorn, e ricordati che tutto ciò che vedi è stato generato dall’intelligenza artificiale”. Eppure non è solo un esercizio di stile o una demo per geek con troppo tempo libero. È una provocazione culturale, un test sul campo, un assaggio di un futuro dove la produzione video e forse tutto il settore creativo sarà riscritto, una prompt alla volta.

Nel teatro geopolitico dei semiconduttori, dove si combatte con wafer e transistor invece che con baionette e bandiere, Nvidia si presenta come quel personaggio improbabile che, pur zoppicando vistosamente, arriva comunque primo al traguardo. Sì, perché l’azienda guidata da Jensen Huang si è appena vista sfilare dal tavolo cinese 8 miliardi di dollari come se niente fosse, per effetto dei nuovi controlli sulle esportazioni imposti da Washington, eppure… il trimestre vola. E non vola a caso: +50% sul fatturato anno su anno, previsione a 45 miliardi. In pratica, Nvidia stampa soldi anche quando dovrebbe affogare.
Questa è la nuova aritmetica del capitalismo AI-driven: puoi perdere un intero mercato (la Cina) e continuare a macinare record su record. Il segreto? Semplice: essere l’unico spacciatore autorizzato di droga computazionale per i modelli linguistici di nuova generazione. Loro hanno gli H100, tu no. Fine della discussione.

La mossa è chirurgica, ma il bisturi è arrugginito e il paziente è globale. Gli Stati Uniti, ancora una volta, tirano il freno a mano sull’export tecnologico verso la Cina, questa volta colpendo il cuore invisibile dell’innovazione: l’Electronic Design Automation, EDA per gli adepti, il software che non costruisce chip, ma li rende possibili. Senza EDA, progettare semiconduttori diventa un’arte rupestre. Lo riferisce il Financial Times, sempre più simile a un bollettino di guerra commerciale piuttosto che a un quotidiano economico.
Ma andiamo con ordine, se ordine si può chiamare questa escalation da Guerra Fredda digitale. A partire da maggio 2025, ogni singolo byte di software EDA che voglia attraversare il Pacifico verso Pechino dovrà essere accompagnato da una licenza di esportazione concessa – o negata – dal Bureau of Industry and Security del Dipartimento del Commercio USA. E no, non si tratta più solo di tool per chip all’avanguardia: adesso il divieto si estende a tutta la linea di prodotti, dall’entry-level al bleeding edge. Anche i cacciaviti digitali sono considerati arma strategica.

Cosa succede quando un tecnocrate con deliri da ingegnere zen si lancia nella giungla burocratica di Washington? Succede Elon Musk. E succede che, dopo una breve ma devastante parentesi come special government employee una carica tanto ambigua quanto pericolosa l’uomo che voleva rendere il governo americano “snello come un razzo Falcon” si ritira con un tweet degno di un film Marvel: la missione non è finita, anzi, è diventata uno stile di vita. Per chi, però, non è chiaro.
Benvenuti nel DOGE, il Dipartimento per l’Efficienza Governativa, partorito dall’ego collettivo di Musk e di un’amministrazione Trump ormai sempre più modellata come una startup tossica in fase di IPO permanente. Una macchina da guerra neoliberista travestita da innovazione, il DOGE non ha risparmiato nessuno: migliaia di dipendenti federali licenziati, intere agenzie federali smantellate come fossero rami secchi di un’azienda in crisi, tagli lineari mascherati da “ottimizzazione”.

Cosa sei disposto a cedere per provare di essere umano? Una domanda che un tempo avrebbe fatto sorridere i più. Oggi, invece, assume contorni squisitamente reali, con un valore preciso, misurabile, convertibile: 42 dollari in Worldcoin, una criptovaluta creata ad hoc per costruire la più ambiziosa infrastruttura di identità digitale globale mai tentata. Tutto questo grazie a Orb, un globo futuristico che scansiona il tuo occhio e ti dà in cambio un’identità verificata. E, appunto, quei 42 dollari.
Sembra una puntata distopica di Black Mirror e invece è una strategia di business. Geniale? Forse. Inquietante? Sicuramente. Ma soprattutto, è un’operazione di potere mascherata da inclusività tecnologica. Un’utopia travestita da soluzione.
La tecnologia è, a ben vedere, di una semplicità disarmante: guardi dentro l’Orb, ti viene scannerizzata l’iride, ne esce un codice binario lungo 12.800 cifre, una sorta di DNA digitale, e voilà, sei un essere umano certificato. Il codice viaggia sul tuo smartphone, associato a un’app. Tu ricevi la tua moneta, loro ricevono la tua identità.

Trump ha detto no. Il Deep State del chip ha risposto: “Ok, ma solo fino alla prossima trimestrale.”
È il genere di teatro geopolitico che solo il capitalismo terminale può offrire con così tanta grazia grottesca. Mentre la Casa Bianca chiude i rubinetti tecnologici alla Cina, Nvidia – il dio monoculare dell’AI moderno – continua a macinare utili con la naturalezza con cui un server Apache gestisce richieste: freddamente, incessantemente, incurante del contesto.
Il blocco dei chip AI verso Pechino è stato sbandierato da Trump come una mossa patriottica, un colpo di karate economico alla gola dell’intelligenza artificiale cinese. In realtà, è servito a ben poco: Nvidia ha appena pubblicato numeri talmente buoni da far arrossire persino Cupertino e Mountain View. 26 miliardi di free cash flow in un solo trimestre. Roba che nemmeno la somma di Apple e Google riesce a replicare. E mentre la Cina scompare dalla mappa delle vendite (con un buco dichiarato di 10,5 miliardi su due trimestri), gli USA e i loro alleati tecnologici si accalcano a comprare ogni singolo transistor disponibile.

Il Giappone, quel laboratorio sociotecnico a cielo aperto dove l’ossessione per il dettaglio incontra la riluttanza al cambiamento, sta per essere scosso da qualcosa di piccolo, minuscolo, quasi ridicolo. Ma, come spesso accade in queste isole, ciò che sembra irrilevante può diventare fatale per i giganti.
A Higashihiroshima, in una di quelle periferie dimenticate dove il tempo passa in silenzio e i vicoli si stringono come i pensieri nei lunedì mattina, un ex YouTuber convertito in imprenditore sta per dare una lezione imbarazzante all’intera industria automobilistica nazionale. Il suo nome è Kazunari Kusunoki. Il suo giocattolo: il mibot, una scatoletta a quattro ruote da un posto solo, alimentata a batteria, che costa meno di uno scooter truccato. Ma attenzione: dietro l’estetica da golf cart c’è l’incubo di Akio Toyoda.

Nel panorama dell’intelligenza artificiale, dove le grandi aziende si contendono il primato a colpi di innovazione e potenza di calcolo, è emersa una nuova protagonista: DeepSeek. Con il rilascio della versione 0528 del modello DeepSeek-R1, l’azienda cinese ha lanciato un messaggio chiaro e potente: la Cina è pronta a giocare un ruolo da protagonista nel campo dell’IA.
Il modello DeepSeek-R1-0528 è stato pubblicato su HuggingFace senza alcun annuncio ufficiale, senza una Model Card, senza un Technical Report. Un gesto che ha il sapore della sfida, un modo per dire: “Siamo qui, e siamo pronti a cambiare le regole del gioco”.

Là dove l’Impero Celeste chiude le porte, l’Impero dell’Ovest dovrebbe spalancarle. Non per amore della libertà — concetto vago e flessibile, soprattutto quando si parla di politica monetaria — ma per strategia, dominio tecnologico e quel sottile desiderio di mettere i bastoni tra le ruote a Xi Jinping. Così ha parlato il vicepresidente degli Stati Uniti J.D. Vance alla Bitcoin Conference di Las Vegas, senza troppi giri di parole: “La Cina odia Bitcoin. Noi, quindi, dovremmo abbracciarlo.”
Un pensiero semplice, quasi infantile nella sua linearità, eppure tremendamente efficace in termini geopolitici. Perché sì, la keyword è Bitcoin. E quelle che lo seguono da vicino sono asset strategico e riserva digitale. Il nuovo lessico del potere non parla più solo di missili ipersonici o porti militari in Africa, ma di nodi blockchain e SHA-256.

Un miliardo di utenti al mese. No, non è la capitalizzazione in dollari di un’azienda crypto caduta in disgrazia, è il numero di persone che, secondo Mark Zuckerberg, stanno già usando Meta AI. Sottolineo: già usando. Non “useranno”, non “potrebbero usare”, ma sono lì, ogni mese, ad accarezzare – consapevoli o meno – le meraviglie della generative AI marchiata Meta.
Ed eccolo, il teatro annuale degli azionisti Meta. Zuck, giacca sobria e sguardo da predicatore, ripete il mantra della nuova era: personal AI. Con l’aria di chi non cerca approvazione, ma legittimazione storica. Perché, mentre il mondo gioca ancora a distinguere tra AI “assistente” e AI “infiltrata”, lui se la ride. La sua creatura non aspetta che tu la cerchi. Vive già nelle vene di WhatsApp, Facebook, Instagram. Invisibile, onnipresente, discretamente indispensabile.