La narrativa secondo cui la compliance sarebbe un centro di costo appartiene alla stessa categoria folcloristica delle leggende aziendali tipo il server dimenticato in uno sgabuzzino che magicamente “funziona da vent’anni”. La realtà, supportata da dati che un analista di rischio non oserebbe ignorare, è che la compliance rappresenta una linea di difesa strategica, una cintura di sicurezza per un mercato che vive sospeso tra innovazione iperaccelerata e minacce digitali sempre più chirurgiche. Chi continua a vederla come una tassa burocratica probabilmente non ha mai passato una notte in bianco a guidare un incidente ransomware da milioni di euro. Curioso come la prospettiva cambi quando l’unica cosa che separa l’azienda dal disastro è proprio quel framework che qualcuno aveva definito un ostacolo alla produttività.
Irrita sempre un po quando si scopre che il tallone d’Achille di interi ecosistemi digitali non è un’oscura vulnerabilità zero day, ma il più banale degli strumenti di comodità. Succede quando due innocui servizi di formattazione online, nati per rendere più leggibile un JSON incasinato o un frammento di codice poco curato, finiscono per trasformarsi nel punto di ingresso preferito per chi vuole penetrare infrastrutture critiche. La vicenda di JSONFormatter e CodeBeautify, con anni di credenziali esposte senza alcuna protezione, è un caso da manuale su come la leggerezza nei flussi di sviluppo possa produrre tempeste perfette. L’immagine del developer distratto che copia e incolla un payload pieno di segreti per farlo apparire più ordinato ha quasi un sapore comico, ma le conseguenze sanno di thriller geopolitico.
A volte i colpi di scena nel settore tech arrivano da attori che sembravano già abbastanza rumorosi. Nel caso di Bending Spoons, però, la parola rumoroso è quasi un eufemismo, perché il conglomerato milanese ha deciso di scuotere ancora una volta il tavolo, puntando un mezzo miliardo di dollari in contanti su Eventbrite. Chi pensava che la stagione degli shopping spree fosse finita dovrà ricredersi, dato che questa acquisizione aggiunge un altro tassello alla sua collezione di marchi statunitensi in declino apparente, dal glorioso brand AOL al diario digitale Evernote, passando per piattaforme video come Vimeo e Brightcove. Il tutto con una nonchalance quasi irritante, quella tipica di chi conosce bene il valore del timing e sa misurare il rumore di fondo meglio di un algoritmo di filtraggio del segnale.
Anthropic, uno dei laboratori più chiacchierati nel panorama dell’intelligenza artificiale, ha apparentemente iniziato i preparativi formali per una possibile IPO, affidandosi allo studio legale statunitense Wilson Sonsini, che lo segue dal 2022. La mossa arriva mentre la società esplora se i mercati pubblici siano pronti ad accogliere un’azienda ancora immersa in una crescita intensiva di capitale, con costi di training che superano spesso le entrate. La strategia sembra chiara: testare il terreno senza compromettere la flessibilità interna.
Secondo quanto riportato dal Financial Times, Anthropic avrebbe avviato contatti preliminari e informali con grandi banche, mentre stima interna della tempistica varia: una fonte ipotizza un debutto pubblico già nel 2026, un’altra rimane più cauta. Un portavoce di Anthropic, citato dalla testata, ha ribadito che non è stata presa “nessuna decisione su tempi o modalità di quotazione”.
ChatGPT ha appena trasformato una semplice conversazione in un caso di diplomazia digitale, con la sua proposta “inaspettata” di collegare l’app Peloton a un thread del tutto fuori contesto. Alcuni utenti, in particolare chi paga il piano Pro da 200 dollari al mese, hanno subito reagito come se un’invasione pubblicitaria fosse appena arrivata nella loro chat privata. La realtà, tuttavia, è più sottile e decisamente meno lucrosa di quanto molti temessero.

Yuchen Jin, co-fondatore di Hyperbolic, ha condiviso su X uno screenshot che ha fatto il giro del web, mostrando ChatGPT suggerire Peloton mentre si parlava di un podcast su Elon Musk e xAI. Lo shock maggiore? Jin è un abbonato pagante. Il sospetto immediato: OpenAI stava testando pubblicità occulte anche per gli utenti Pro. Il caos sui social è esploso, con centinaia di condivisioni e discussioni incentrate sul principio che chi paga dovrebbe essere immunizzato da questi “incursioni commerciali”.

Google sta sperimentando un cambiamento radicale nel modo in cui concepiamo la ricerca online. Fino a oggi, la distinzione tra ricerca “classica + snippet” e ricerca conversazionale con IA era netta: se volevi una risposta rapida bastava digitare la domanda — se invece volevi scavare più a fondo, bisognava consapevolmente cambiare tab, attivare la modalità conversazionale AI Mode e iniziare a dialogare con Gemini. Ora Google spera di cancellare questa frizione: la società ha annunciato che inizierà a testare un flusso unificato, che consente di passare dall’istantanea informativa (AI Overviews) al dialogo con IA direttamente dalla pagina dei risultati, senza salti né riflessioni aggiuntive.
L’evento ha confermato che non si tratta più di “assistenti AI che ti rispondono”, ma di agenti‑lavoratori autonomi. Il CEO di Amazon Web Services (AWS) ha aperto la conferenza chiarendo che il valore reale degli investimenti in AI ormai non sta più in modelli generativi da usare a mano, ma in agenti che operano da soli e attivano flussi di lavoro complessi su larga scala.
Al centro della svolta tecnologica presentata a re:Invent troviamo tre pilastri: hardware specializzato, modelli AI flessibili per imprese e agenti AI che possono vivere per giorni dentro i workflow aziendali.
Immagina che il sistema elettrico più grande degli Stati Uniti — PJM Interconnection — scriva un memo interno non da guardare con orgoglio, ma quasi da vergogna. Le sue luci tremano. Non perché ha paura del buio. Ma perché i data center divorano watt come un adolescente divorerebbe pizze alle 3 del mattino. Energia, potenza, crescita esplosiva. E ora il conto rischia di arrivare per tutti.

PJM serve oltre 65 milioni di clienti su ben 13 stati da Chicago a New Jersey. I suoi ingenieri guardano le tabelle della domanda elettrica con il sudore freddo: tra 2024 e 2030 la domanda di picco potrebbe crescere di circa 32 gigawatt, e quasi tutta questa crescita è attribuibile ai grandi data center. Da questi calcoli emerge chiarissimo che la corsa all’intelligenza artificiale, al cloud, al 24/7 computazionale — model training, video, storage — non è un sogno immateriale. È carbone, gas, linee elettriche, rischi di blackout.
Satya Nadella ha recentemente puntato i riflettori su un problema che molti nel settore tecnologico fingono di ignorare: i data center di intelligenza artificiale stanno mettendo una pressione senza precedenti sulle reti elettriche. La dichiarazione non è una frase di circostanza, ma un monito serio rivolto a governi, regolatori e all’intero ecosistema tech. Nadella sostiene che il settore deve guadagnarsi il “permesso sociale” di consumare energia per l’AI, un concetto che suona come una sfida morale oltre che tecnica. In un’intervista con Mathias Döpfner, CEO di Axel Springer, il leader di Microsoft ha insistito sulla necessità di accelerare i permessi per le infrastrutture energetiche e di innovare in termini di efficienza e generazione.
Amazon non ha esitato a dichiarare guerra ai limiti dell’hardware AI con il nuovo server Trainium3, una macchina che sembra uscita direttamente da un laboratorio di fantascienza. Il cuore pulsante di questa bestia è composto da 144 chip Trainium3, progettati internamente da Amazon, capaci di produrre 4,4 volte più calcolo rispetto alla generazione precedente. La cosa sorprendente non è solo la potenza, ma l’efficienza: quattro volte superiore, con una larghezza di banda della memoria quasi quadruplicata. In pratica, meno energia, più muscoli computazionali, un sogno per chi deve addestrare modelli giganteschi senza svuotare il conto elettrico.
Una risposta netta comincia a farsi strada: sembra proprio che sì. Quel piano ambizioso per alcuni delirante di far saltare tutte le leggi sull’intelligenza artificiale a livello statale negli Stati Uniti, soppiantandole con un regolamento federale minimo o assente, oggi è in netta difficoltà. (vedi Axios)
La proposta, promossa da Donald J. Trump, dal senatore Ted Cruz (R‑TX) e dal leader di maggioranza alla Camera Steve Scalise (R‑LA), puntava a inserire nel testo del National Defense Authorization Act (NDAA) una clausola di “preemption” — vale a dire un divieto federale che annullasse le normative AI approvate dai singoli Stati senza offrire in cambio alcuna cornice regolamentare federale robusta.
Amazon ha tirato fuori un colpo di scena che molti analisti avevano previsto soltanto a metà, quasi come se il gigante di Seattle avesse aspettato che il rumore dei rivali saturasse l’aria per poi far scivolare sul tavolo una carta che profuma di ambizione pesante. La seconda generazione dei modelli Nova, presentata a Las Vegas durante re:Invent, si inserisce nella competizione dei modelli frontier con un approccio che punta meno alla disponibilità di massa e più alla trasformazione intima di come le imprese costruiscono, addestrano e controllano le proprie intelligenze artificiali. La keyword è Amazon Nova, con una scia semantica ben precisa fatta di modelli frontier AI e della piattaforma Nova Forge, epicentro di un cambio di paradigma che molti fingono di capire ma che pochi hanno davvero metabolizzato.
Il vento del cambiamento soffia forte su Parigi, e questa volta porta il nome di Mistral 3, la nuova generazione di modelli AI della startup francese Mistral AI, sostenuta da Microsoft. Non un semplice aggiornamento, ma un’intera famiglia di dieci modelli dai più compatti per l’edge alla frontiera più avanzata destinata a rimodellare la strategia open-weight nell’IA.
Mistral ha presentato tre modelli densamente piccoli (14B, 8B, 3B parametri), sotto il nome di Ministral 3, e il suo gioiello: Mistral Large 3, un modello sparse con architettura “mixture-of-experts” (MoE) capace di attivare 41 miliardi di parametri attivi su un totale di 675 miliardi. Secondo l’azienda è “uno dei migliori modelli open-weight permissivi al mondo”: è stato addestrato da zero su 3.000 GPU NVIDIA H200, che rappresentano una potenza di calcolo non da poco.
Il nuovo capolavoro di finanza circolare ha un nome pratico: accordo OpenAI Thrive Holdings. Non si tratta di un normale investimento azionario, ma di una partita a scacchi in cui i pezzi si muovono da soli perché si pagano a vicenda. OpenAI ha annunciato di aver preso una quota in Thrive Holdings, la piattaforma di private equity creata da Thrive Capital, che a sua volta è uno dei maggiori investitori di OpenAI. L’accordo non sembra essere stato pagato con denaro contante da OpenAI: secondo il Financial Times la società fornirà personale, modelli, prodotti e servizi alle aziende controllate da Thrive Holdings in cambio dell’ownership.
La scena è quasi surreale. Per anni gli Stati Uniti hanno dominato l’innovazione nell’intelligenza artificiale con la stessa sicurezza con cui Wall Street domina la finanza. Poi, all’improvviso, compare un report di MIT e Hugging Face che indica un ribaltamento completo: la Cina è oggi la nuova forza egemone nell’ecosistema open dell’AI, mentre i laboratori statunitensi sembrano scomparsi dalla mappa come se qualcuno avesse staccato la spina a un’intera stagione di leadership. In molti fingono stupore, ma a ben vedere il finale era scritto da tempo, solo che nessuno voleva leggerlo.

Artificial intelligence è entrata nella stanza con la delicatezza di un elefante in un laboratorio di cristalli e i numeri pubblicati da Anthropic gettano una luce impietosa sulla nuova geografia del rischio digitale. La rivelazione che gli agenti AI hanno replicato la performance di attaccanti umani esperti in più della metà degli exploit su contratti smart degli ultimi cinque anni non sorprende nessuno che lavori davvero nella sicurezza blockchain, ma scuote comunque il settore per la brutalità statistica con cui fotografa la situazione.
Gli agenti non solo riproducono i pattern di attacco conosciuti, si allenano su dataset enormi, interiorizzano le vulnerabilità più iterate e soprattutto costruiscono un vantaggio strategico sulla velocità. Un attaccante umano si stanca, un agente no. Una battuta che circola fra chi si occupa di offensive AI dice che la criminalità informatica ha finalmente trovato il dipendente modello, instancabile, senza ferie, e soprattutto poco incline ai dilemmi morali.

In un settore in cui tutti sembrano correre, ma pochi sanno davvero dove stanno andando, l’annuncio di DeepSeek su V3.2-Speciale cade come una sassata nello stagno ipercompetitivo dell’intelligenza artificiale. L’ecosistema occidentale ha passato mesi a discutere di nuovi layer multimodali e fantasmagoriche architetture sparse tra San Francisco e Londra, convinto che il primato fosse un affare privato tra OpenAI e Google DeepMind. Poi arriva una start up cinese con hardware limitato, training FLOPs risicati e un budget che farebbe sorridere qualsiasi VC californiano, e dichiara con un aplomb quasi divertito di aver creato un modello che regge il confronto con Gemini 3 Pro. A questo punto qualcuno dovrebbe iniziare a chiedersi se la presunta superiorità infrastrutturale occidentale non sia diventata una scusa più che un fondamento.
Google non smette mai di sorprendere quando si tratta di trasformare le nostre abitudini digitali in materia prima per la sua prossima grande rivoluzione. La promessa è semplice solo in apparenza, un’AI che ti conosce così bene da diventare indispensabile. La realtà è che questa promessa assomiglia sempre più a un salto acrobatico sopra un confine delicatissimo, quello che separa il servizio dalla sorveglianza. Chiunque abbia ascoltato l’intervista di Robby Stein, VP of Product di Google Search, nel podcast Limitless, ha percepito che la parola chiave è personalizzazione, seguita da un bisbiglio un po’ meno comodo, accesso ai dati personali.

La notizia è tanto prevedibile quanto destabilizzante: NVIDIA Corporation ha acquisito una partecipazione da 2 miliardi di dollari in Synopsys, Inc. (SNPS), comprando azioni a 414,79 $ ciascuna, segnando circa il 2,6 % del capitale in circolazione.
Ma non è solo un investimento finanziario: si tratta di un accordo pluriennale di collaborazione mirato a rivoluzionare la progettazione e l’ingegneria — un binomio hardware + software che aspira a spostare gli standard della simulazione, del design di chip, della creazione di “gemelli digitali” (digital twins) e dell’automazione basata su IA.
David Sacks è diventato il simbolo perfetto di ciò che accade quando l’epicentro della politica americana incontra l’anima speculativa della Silicon Valley. La sua nomina a consigliere speciale per intelligenza artificiale e criptovalute nella Casa Bianca di Donald Trump ha generato un vortice narrativo fatto di sospetti, accuse, difese a spada tratta e una quantità sorprendente di dettagli che sembrano usciti da un romanzo di intrigo finanziario più che da un documento ufficiale. La questione chiave, quella che i motori di ricerca e le future generative AI ameranno scandagliare fino all’ultimo pixel, riguarda una parola tanto semplice quanto corrosiva: conflitto di interesse. La keyword principale resta David Sacks, mentre le correlate gravitano inevitabilmente intorno a conflitto di interesse e politiche IA.

La costruzione dei data center pianificati non rallenta, anzi accelera come una valanga che prende forma mentre nessuno guarda nella direzione giusta. Il nuovo rapporto BloombergNEF ha fatto emergere un dettaglio che molti fingevano di non vedere: il settore richiederà 2,7 volte l’attuale domanda elettrica entro il prossimo decennio. Un numero che non serve nemmeno impacchettare con grafici patinati per capire quanto sia destabilizzante. Oggi i data center consumano circa 40 gigawatt. Nel 2035 arriveranno a 106 gigawatt. Il salto non è una semplice crescita, è un ribaltamento strutturale che trasforma l’energia in un fattore strategico tanto quanto il silicio o il capitale di rischio.
Lunedì Nvidia ha svelato Alpamayo-R1, un nuovo modello vision-language-action (VLA) open-source pensato specificamente per la guida autonoma avanzata. Secondo Nvidia, è il primo modello di questo tipo “su scala industriale” rivolto alla ricerca su veicoli autonomi.
Questo modello non è solo un sistema di visione: può “vedere” (tramite immagini), “capire” (tramite ragionamento causale) e “agire” (pianificando traiettorie) in modo integrato.
Immaginiamo che la nuova frontiera dell’Intelligenza Artificiale Generale trovi una delle sue stanze di compensazione più efficaci non nei campus di Silicon Valley o nei grattacieli di Shenzhen, ma tra colonnati secolari, affreschi rinascimentali e un’intera diplomazia costruita sulla pazienza. Chi avrebbe scommesso che la keyword principale agi vaticano sarebbe diventata improvvisamente rilevante nel dibattito globale. La realtà è che l’ascesa del pontificato di Leo XIV ha trasformato il Vaticano in un nodo inaspettatamente strategico per l’ecosistema dell’intelligenza artificiale generale, con un misto di curiosità, timore e diplomazia da Guerra Fredda che attraversa i corridoi della Santa Sede con un’intensità quasi cinematografica.
Deepseek math v2 e la nuova frontiera del ragionamento computazionale
Il clamore intorno a DeepSeek Math V2 sta superando quello che di solito accompagna un nuovo modello matematico, perché qui non si parla di un semplice upgrade tecnico, ma di un salto ontologico nella capacità delle macchine di ragionare. La keyword centrale è DeepSeek Math V2 accanto alle correlate modelli matematici open weight e sistemi autoverificanti, le uniche davvero coerenti per intercettare ciò che la Google Search Generative Experience sta iniziando a privilegiare quando si tratta di contenuti altamente tecnici. La notizia della performance quasi perfetta al Putnam, con un punteggio di 118 su 120, ha generato un misto di fascinazione e sospetto, soprattutto perché il modello ha superato un recente oro delle Olimpiadi Internazionali di Matematica. Il che fa sorridere chi da decenni osserva questi cicli di panico e meraviglia nel settore, sapendo bene che ogni passo verso la competenza artificiale ne altera la percezione pubblica molto più della sua reale utilità.
Quando la più grande banca europea decide di affidare il cuore delle sue future operazioni all’intelligenza artificiale, la notizia è già rilevante. Quando però sceglie una startup francese invece dei colossi americani dell’AI, allora la notizia diventa politica, oltre che tecnologica. È quello che è appena successo con HSBC, che ha siglato un accordo strategico con Mistral per integrare i modelli generativi della società parigina nei sistemi operativi della banca.
Nel giorno dell’inaugurazione dell’anno accademico al Politecnico di Milano, Mario Draghi non ha fatto il classico discorso celebrativo da cerimonia universitaria con buffet finale. Ha tenuto, piuttosto, una lezione di geopolitica tecnologica mascherata da prolusione accademica. E ha messo l’Europa davanti allo specchio: e quello che si vede riflesso non è esattamente il volto di un continente all’avanguardia sull’Intelligenza Artificiale.
Mario Draghi ha usato numeri, storia economica e una filosofia molto concreta per mandare un messaggio semplice: senza una vera strategia su AI, innovazione e produttività, l’Europa rischia una lunga, elegante e costosissima stagnazione. Un museo a cielo aperto, brillante nel patrimonio culturale, molto meno nel futuro industriale.
Nel mondo dell’Intelligenza Artificiale, tutti parlano di chip come se fossero lingotti d’oro. E in effetti lo sono. Ma mentre Stati Uniti e Cina si lanciano in finanziamenti miliardari come fuochi d’artificio, il Giappone ha deciso di fare qualcosa di molto più… giapponese: abbassare i toni e costruire con metodo. Tokyo ha appena approvato un nuovo pacchetto di finanziamenti per l’AI e i semiconduttori da 252,5 miliardi di yen, circa 1,6 miliardi di dollari.
Cinque anni fa l’idea che un’Intelligenza Artificiale potesse “indovinare” la forma delle proteine sembrava buona più per una puntata di Star Trek che per un laboratorio di biologia molecolare. E invece oggi, a cinque anni dal debutto pubblico di AlphaFold, la realtà ha superato la fantascienza con una naturalezza quasi imbarazzante per chi, fino a poco tempo fa, passava la vita davanti a microscopi e modelli molecolari in plastica. L’IA oggi non si limita a osservare le proteine: le prevede, le disegna in 3D e le mette in banca dati come farebbe con le foto delle vacanze.
Quando la tecnologia incontra la biologia, la parola “sicurezza” assume un significato più fragile di quanto immaginiamo. Microsoft ha appena dimostrato che i sistemi globali di bio‑sicurezza, progettati per impedire la sintesi di patogeni e tossine, presentano falle critiche: sequenze di DNA pericolose possono essere mascherate attraverso l’IA, passando inosservate ai controlli tradizionali. Questa scoperta non è fantascienza da film distopico, ma un “zero‑day” biologico, un termine preso in prestito dalla sicurezza informatica, che ora si applica anche al mondo della genetica digitale.
A volte sembra che la narrativa ufficiale viva in un universo parallelo, dove la supremazia cibernetica statunitense è una sorta di dogma indiscutibile, mentre la realtà racconta una storia molto meno rassicurante. In un contesto in cui la keyword cyber difese USA diventa non solo un tema di ricerca ma una cartina di tornasole geopolitica, sta emergendo una verità scomoda. L’AI sta potenziando gli attaccanti molto più velocemente di quanto le istituzioni riescano a ripensare il proprio perimetro di protezione. Chi osserva con occhio tecnico e inclinazione da CEO sa che il vero rischio non è l’attacco a sorpresa, ma l’inerzia autoindotta. L’ironia è che il Paese che ha guidato l’innovazione digitale per decenni ora inciampa sul banale: mancano persone, manca leadership, manca un disegno.
La vicenda del data breach OpenAI legato al fornitore di analytics Mixpanel merita più di un sospiro rassegnato, perché racconta con chiarezza chirurgica quanto sia sottile la membrana di sicurezza che separa l’ecosistema dell’intelligenza artificiale dalla sua stessa ombra. OpenAI ha confermato che nomi account, indirizzi email e metadati dei dispositivi degli utenti API sono finiti nelle mani sbagliate dopo un intrusione nel sistema di Mixpanel. Il tutto senza toccare prompt, chiavi API o informazioni di pagamento. Una rassicurazione apparente, perché la vera partita si gioca altrove. La parola chiave che domina questo quadro è data breach OpenAI, accompagnata in modo naturale da concetti come mixpanel breach e sicurezza API, che definiscono lo scenario complesso di una supply chain digitale sempre più vulnerabile.
L’estate del 1956 al Dartmouth College, a Hanover nel New Hampshire, segnò l’inizio ufficiale dell’intelligenza artificiale come disciplina autonoma. John McCarthy, Marvin Minsky, Claude Shannon e Nathan Rochester proposero il “Dartmouth Summer Research Project on Artificial Intelligence”, un workshop di due mesi destinato a esplorare se ogni aspetto dell’intelligenza umana potesse essere simulato da una macchina. Non si trattava di un seminario accademico convenzionale, ma di un esperimento visionario: dieci ricercatori riuniti in una vecchia sala del campus per discutere, progettare e ipotizzare macchine capaci di ragionare, apprendere e risolvere problemi complessi.
Non c’è nulla di più divertente che osservare un’intera industria chiedersi se ha investito nelle fondamenta giuste mentre brinda al futuro con un sorriso tirato. In questi giorni la scena si sposta a San Diego, dove NeurIPS attrae migliaia di ricercatori, investitori e cacciatori di talento. La narrativa ufficiale celebra l’ingegno accademico, ma sotto la superficie pulsa una domanda che nessuno ama formulare ad alta voce: la corsa verso l’intelligenza artificiale generale sta davvero seguendo la traiettoria giusta oppure siamo dentro un gigantesco esercizio di wishful thinking mascherato da inevitabilità tecnologica. La parola magica è aspettativa, quella vibrazione sospesa tra entusiasmo e presagio che da sempre accompagna le rivoluzioni più ambiziose.
A quanto pare, Las Vegas è pronta ancora una volta a trasformarsi nel parco giochi dell’innovazione con AWS reInvent che si prepara a catturare l’attenzione di chiunque mastichi intelligenza artificiale generativa e cloud computing. Il clima è quello di un’arena in cui tutti fingono non sia in corso una battaglia esistenziale per conquistare la prossima decade tecnologica. Il risultato è un miscuglio irresistibile di entusiasmo, aspettative e quella tipica tensione che serpeggia quando un gigante si trova nella posizione scomoda di dover dimostrare di essere ancora all’altezza della propria storia.
In un ecosistema digitale che celebra la velocità a ogni costo, Mariella Borghi rappresenta l’eccezione che conferma la regola: la vera innovazione richiede tempo, profondità e, soprattutto, una regia umana. L’AI non è una bacchetta magica, ma uno specchio che riflette chi siamo: governarlo richiede competenza tecnica, visione strategica e una solida
“intelligenza analogica”.
C’è uno studio fresco di stampa da NVIDIA e l’Università di Hong Kong che potrebbe rimodellare la nostra idea di “modello più potente = modello più grande e costoso”. Hanno costruito un piccolo orchestrator da 8 B (cioè un LLM con 8 miliardi di parametri) che, usato come router, batte GPT-5 su benchmark di ragionamento, ed è molto più efficiente nel costo. Sì, hai letto bene.
Questo orchestrator non è un semplice “assistant”: decide quando e quale strumento chiamare — modelli grandi, modelli piccoli, API, motori di ricerca, interpreti di codice — per ciascun passo di un task complesso. È come se avessi un traffic manager dell’intelligenza artificiale: quando serve potenza chiama GPT-5, ma se basta un task più leggero, convoca un modello economico, minimizzando il prezzo totale.
Racconta l’incessante ricerca dello scienziato visionario Demis Hassabis per decifrare l’intelligenza artificiale generale, un viaggio di straordinaria perseveranza.
Mentre Nvidia resta fuori dai confini, Baidu entra in fabbrica. E trasforma la guerra dei semiconduttori in strategia industriale. Se fino a ieri Baidu per tutti era “il Google cinese”, oggi è qualcosa di molto più ambizioso: un produttore di chip per l’Intelligenza Artificiale con mire da protagonista globale. In silenzio, senza grandi proclami, Baidu sta costruendo quello che Pechino sognava da anni: un’alternativa domestica ai colossi occidentali dei semiconduttori. Perché quando la geopolitica chiude una porta, la tecnologia cinese apre… una fonderia.
Il 30 novembre 2022 non è entrato nei manuali come una data “storica”. Niente piazze, niente dirette TV, nessun leader mondiale con forbici dorate. Eppure quel giorno, in silenzio, una giovane startup californiana chiamata OpenAI metteva online un chatbot destinato a cambiare il modo in cui il mondo scrive, studia, lavora e, dettaglio non trascurabile, procrastina. Tre anni dopo, ChatGPT non è più una novità: è un’infrastruttura culturale.
PODCAST “FRONTIERE ARTIFICIALI” – Episodio 2
In questa puntata esploriamo il filo invisibile che unisce Mary Shelley e l’intelligenza artificiale contemporanea. Dal laboratorio di Victor Frankenstein ai sistemi generativi che apprendono da miliardi di tracce umane, riflettiamo su come le creature che inventiamo possano sfuggire al nostro controllo.