Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Vitruvian-Smart-12B, la nostra ragazza in gamba che batte i fratelli maggiori (e senza nemmeno alzare la voce)

Alziamo le bandierine, sì, ma non quelle sventolate dai soliti giganti americani. Stavolta si celebra una nativa europea, una creatura di silicio e sintassi che non ha bisogno di server-fattorie in Arizona per brillare. Si chiama Vitruvian-Smart-12B, nome da diva cyborg ma con la testa da prima della classe. Non urla, non spreca, non invade la privacy. E già si è fatta valere.

Trump annuncia un’intesa con la Cina ma Wall Street non applaude più

«OUR DEAL WITH CHINA IS DONE» twitta Trump con la sobrietà di un adolescente che ha finalmente ricevuto un like da Elon Musk. È mercoledì mattina, e il Presidente più imprevedibile della storia americana getta la notizia come un osso a una stampa affamata: l’accordo commerciale preliminare con la Cina è stato raggiunto. Una dichiarazione che, in altri tempi, avrebbe acceso i riflettori di Wall Street come Times Square a Capodanno. Ma stavolta no. Il mercato scrolla le spalle, forse sbadiglia. Perché?

I negoziatori di Stati Uniti e Cina hanno raggiunto un’intesa preliminare su un “quadro” generale, che ora verrà sottoposto ai rispettivi leader per la revisione, nel tentativo di riattivare l’accordo di tregua commerciale siglato a Ginevra il mese scorso.

Alla domanda su eventuali concessioni americane sul controllo delle esportazioni dopo i colloqui di Londra, la Casa Bianca ha evitato dettagli, ribadendo solo il rispetto dell’accordo di Ginevra. Secondo la portavoce Leavitt, la Cina si è detta disponibile ad aprire i suoi mercati agli USA in modo separato e ha acconsentito al rilascio di minerali strategici impiegati nei magneti, secondo i termini già pattuiti a Ginevra.

La vendetta dei contenuti: perché Taboola ha appena dichiarato guerra all’intelligenza artificiale

C’è qualcosa di profondamente ironico — e incredibilmente strategico — nel vedere Taboola, il re degli articoli “Ti potrebbe interessare anche…” in fondo a ogni sito web, diventare improvvisamente il paladino dei contenuti editoriali saccheggiati dall’AI.

Mercoledì, in una mossa che suona tanto come un attacco preventivo quanto un atto di autodifesa, Taboola (NASDAQ:TBLA) ha annunciato il lancio di DeeperDive, un motore di ricerca basato su intelligenza artificiale generativa. Ma attenzione: non si tratta dell’ennesimo clone di ChatGPT travestito da “assistente smart”. DeeperDive ha un compito preciso, chirurgico, politicamente strategico: riportare i publisher al centro della mappa del potere digitale.

Lakebase, la frontiera ibrida dove Postgres incontra l’intelligenza artificiale

In un giorno che sembra uno spartiacque per il mercato dei database, Databricks ha annunciato oggi il lancio di Lakebase, una soluzione inedita pensata per aziende e sviluppatori desiderosi di costruire applicazioni e agenti AI su una piattaforma multi‑cloud unificata.

Immaginate un database operativo—di quelli che fanno girare le transazioni in tempo reale—progettato per l’era dell’IA, integrato con analytics e storage a bassissimo costo. È questa l’ambizione dichiarata da Lakebase: portare i dati operativi nel lakehouse, con compute che scala automaticamente e garantisce latenza sotto i 10 ms e capacità di gestire oltre 10 000 query al secondo.

Meta vuole riscrivere le leggi della fisica con l’intelligenza artificiale: arriva V-JEPA 2

Meta Platforms ha appena sganciato una bomba, anche se lo stile è quello da laboratorio silenzioso e patinato. Il nome è V-JEPA 2. Sembra il titolo di un software di terz’ordine, ma è molto di più: è il nuovo modello di intelligenza artificiale lanciato da Menlo Park per spingere la sua visione dell’Advanced Machine Intelligence (AMI), un concetto tanto vago quanto ambizioso che promette — o minaccia — di trasformare ogni interazione uomo-macchina in una danza algoritmica tra causa ed effetto.

Nvidia si prende l’europa: nasce il primo cloud industriale per l’intelligenza artificiale, 10.000 gpu per spodestare Amazon e Google

Nessuno aveva chiesto il permesso. Nvidia è entrata in Europa come una valanga silenziosa, con l’annuncio che segna una nuova frontiera: la costruzione del primo cloud industriale AI europeo. Non un data center qualsiasi, ma una piattaforma con 10.000 GPU H100, pensata non per alimentare i meme su Midjourney, ma per far girare le macchine che muovono l’industria pesante, le smart factory e, soprattutto, le economie nazionali.

Dietro l’annuncio c’è molto di più che un’infrastruttura. C’è un messaggio politico. C’è l’idea, finora solo sussurrata nei corridoi della Commissione Europea, che il cloud “made in USA” non sia più sostenibile. E mentre Bruxelles balbetta leggi e regolamenti, Nvidia fa. E lo fa a casa nostra.

Amazon punta al cuore del futuro con l’IA generativa: non è più logistica, è controllo del tempo

Non si tratta più di pacchi che arrivano a destinazione. È il tempo che viene domato. È il desiderio del cliente che viene previsto prima ancora che sia espresso. È Amazon che, con tre mosse di scacchi algoritmici, si prepara a mettere le mani sul vero potere dell’e-commerce globale: la predizione esatta. Non dei bisogni, ma delle condizioni affinché i bisogni si manifestino. Come un oracolo vestito da fattorino.

La chiamano “real-world value”, ma la posta in gioco è molto più sofisticata: chi controlla la mappa, controlla il territorio. E adesso, la mappa la disegna Amazon, pixel dopo pixel, con Wellspring, la sua nuova tecnologia di generative AI per la logistica, capace di trasformare un condominio labirintico o un quartiere appena nato in un sistema comprensibile, leggibile, prevedibile. Un algoritmo che osserva satellite, impronte degli edifici, foto di strada e persino le istruzioni del cliente, combinandoli in una rete neurale che “vede” meglio del corriere, “pensa” prima del cliente e “decide” come un architetto del delivery.

Oracle Fiscal 2025 Fourth Quarter and Fiscal Full Year Financial Results gonfia il cloud, ma resta prigioniera del suo passato

A volte l’innovazione è una scusa ben confezionata per non cambiare nulla di veramente strutturale. Ed è esattamente questo il paradosso in cui si trova Oracle, che ha appena annunciato i risultati finanziari del quarto trimestre e dell’intero anno fiscale 2025: numeri impressionanti, crescita solida nel cloud, margini in salute, eppure si percepisce un’eco lontana, quasi nostalgica, di una dinastia che si reinventa senza mai rinunciare veramente all’antico potere.

Cominciamo dai numeri, che non mentono ma neppure raccontano tutto. Oracle chiude il Q4 con 15,9 miliardi di dollari di ricavi, in aumento dell’11%. Di questi, 6,7 miliardi arrivano dal cloud – un universo che comprende tanto l’Infrastructure-as-a-Service (IaaS) quanto il Software-as-a-Service (SaaS) – con una crescita complessiva del 27%. Il vero propulsore? L’IaaS, che balza del 52% rispetto all’anno precedente, mentre le applicazioni cloud (SaaS) avanzano più modestamente (+12%). Più interessante ancora: la parte ERP, Fusion e NetSuite, fa registrare 1 miliardo ciascuno, con un’accelerazione rispettivamente del 22% e del 18%. Per un’azienda che ancora pochi anni fa sembrava dover decidere se restare nel business dei database o abbracciare il modello cloud, è una mutazione darwiniana notevole.

Quando l’intelligenza artificiale prende fuoco: cronache da una rivolta post-luddista a Los Angeles

Nelle strade di Los Angeles, dove la città ribolle sotto la superficie patinata da cartolina, 750.000 dollari di veicoli autonomi Waymo sono andati in fumo, letteralmente. Un incidente isolato? Una follia vandalica da parte di qualche sbandato con un accendino e troppo tempo libero? Forse. Ma più probabilmente è un sintomo. Un segnale. Uno di quei momenti che, se hai l’occhio giusto, ti fanno drizzare le antenne e ti obbligano a mettere in pausa l’entusiasmo da Silicon Valley.

L’illusione del chip nazionale che rallenta l’intelligenza artificiale cinese

È curioso come il sogno dell’autosufficienza tecnologica finisca spesso per trasformarsi in una beffa amara. Liu Qingfeng, il visionario ma pragmatico chairman di iFlytek, ha ammesso senza troppi giri di parole che affidarsi ai semiconduttori prodotti in Cina continentale – in particolare l’Ascend 910B di Huawei – comporta un ritardo di tre mesi nello sviluppo dei modelli di intelligenza artificiale rispetto all’utilizzo delle ben più mature soluzioni Nvidia. Un piccolo dettaglio che però non frena la sua testardaggine: “Meglio perdere tempo che perdere l’autonomia”, sembra dire, ostinandosi a proseguire sulla strada dei chip locali, malgrado l’inevitabile gap prestazionale.

OpenAI stringe la mano a Google mentre prende le distanze da Microsoft: una liaison da miliardi nel cloud dell’intelligenza artificiale

Una stretta di mano tra rivali, una manovra laterale ad alta tensione geopolitica dell’AI, una sorta di Guerra Fredda tra chip e datacenter che improvvisamente si fa tiepida. OpenAI, l’astro nascente alimentato da Microsoft, ora pesca nel giardino dell’arcinemico: Alphabet. Sì, proprio Google. E non per due briciole di potenza computazionale, ma per espandere la sua infrastruttura AI con la forza di fuoco della nuvola di Mountain View. Il tutto nel momento in cui ChatGPT – definito “il rischio più concreto per il dominio di Google nella search da vent’anni a questa parte” – continua a mangiarsi fette di attenzione, di mercato e, va detto, anche di narrativa pubblica.

Meta vuole rifare Hollywood in dieci secondi

Se hai sempre sognato di trasformarti in un personaggio anime con occhi rosa fosforescente o vedere il tuo cane scavare una buca tra cactus viola in un deserto arancione (sì, arancione), allora Meta ha un regalo per te. Ma affrettati: è gratis solo per un “tempo limitato”. Il che, in gergo tecnologico, è una combinazione tossica tra “beta testing pubblico non dichiarato” e “prima ti faccio innamorare, poi ti metto l’abbonamento”.

Meta ha appena lanciato un nuovo strumento di video editing AI che consente di trasformare radicalmente i primi dieci secondi dei tuoi video. Sottolineiamo: dieci secondi. Come direbbe un regista indie sotto metanfetamina: “È tutta una questione di incipit”. I preset disponibili sono più di cinquanta, e funzionano esattamente come i filtri di Instagram, ma con ambizioni più grandi: ti cambiano lo sfondo, ti vestono in smoking digitale, ti truccano come un personaggio di un JRPG lisergico e ti proiettano in ambienti virtuali vagamente distopici. La parola chiave? Restyling video assistito da intelligenza artificiale. O meglio: travestimento post-moderno in 1080p.

Hollywood contro il clone digitale: Disney e Universal citano Midjourney per plagio algoritmico

Se Shrek, Darth Vader e Buzz Lightyear potessero parlare, probabilmente oggi avrebbero già consultato un avvocato. E non per discutere di nuovi contratti o reboot, ma per affrontare la loro resurrezione involontaria nel circo dell’intelligenza artificiale generativa. Il 2025 non ha ancora portato veicoli volanti, ma ha spalancato le porte a una battaglia epocale: Disney e Universal hanno trascinato in tribunale Midjourney, accusandola di essere una “macchina distributrice virtuale di copie non autorizzate”. Un’accusa pesante, che ha tutta l’aria di voler diventare il precedente giudiziario che Hollywood aspettava come un sequel troppo a lungo rimandato.

AI non è quasi mai intelligenza artificiale: è solo PowerPoint con un paio di script Python

Entrare in una boardroom oggi è come assistere a un revival tecnologico di fine anni ’90, solo con più buzzword e meno sostanza. Il termine “intelligenza artificiale” viene lanciato come coriandoli durante il Carnevale di Rio: colorato, rumoroso, ma alla fine completamente vuoto. Ecco il problema: la maggior parte delle “implementazioni AI” che ho visto negli ultimi tredici anni? Non erano AI. Erano automazioni mascherate, assistenti digitali con un branding più sexy, o previsioni su dati che già avevamo. Ma intelligenza artificiale? Quella, amici miei, è rara quanto l’umiltà in una startup che ha appena chiuso un round Series B.

Il cortocircuito nasce da una domanda semplice: cos’è davvero l’intelligenza artificiale? Provate a chiederlo a dieci manager. Riceverete cinquanta risposte. Alcune poetiche, altre semplicemente confuse.

Accenture e Nvdia il sistema operativo invisibile che governerà l’intelligenza sovrana in europa: Sovereign AI

Live da GTC Paris, la fiera dove i badge brillano più dei neuroni e gli acronimi si fanno carne. Lì, tra droni in posa e modelli linguistici con velleità geopolitiche, si sta delineando un nuovo spettro: quello della Sovereign AI, l’intelligenza artificiale sovrana. Non è solo una buzzword – anche se suona dannatamente bene nei comunicati stampa – ma una posta in gioco di portata storica. E in prima fila, con il microfono acceso e le slide ben oliate, ci sono NVIDIA e Accenture. Non stanno vendendo solo chip e consulenze, ma una visione: un sistema operativo per l’autonomia digitale dell’Europa.

Già, un Operating System for Sovereign AI. Come se la democrazia liberale avesse finalmente trovato il suo kernel.

Ma cosa vuol dire davvero? Non è solo una faccenda di compliance o di regolamenti con nomi in codice tipo “AI Act”. È una questione strutturale: chi controlla i modelli linguistici controlla la narrativa, e chi controlla la narrativa… beh, scrive il futuro. Con questo OS, l’obiettivo è chiaro: dare a governi e industrie europee una piattaforma che permetta di gestire, adattare e far evolvere modelli generativi in un contesto a prova di GDPR, di sovranità economica e – perché no – di orgoglio continentale.

La burocrazia si sbriciola in 40 secondi: come Gemini sta distruggendo la lentezza del planning britannico

350.000.

No, non è il numero di biscotti che un inglese medio consuma con il tè in un anno, ma il volume di richieste di pianificazione urbanistica che ogni singolo anno intasa le scrivanie, reali o virtuali, dei consigli comunali del Regno Unito. O, meglio, le intasava.

Perché ora, grazie a Gemini – il modello multimodale di Google – e un’applicazione audace chiamata Extract, quello che richiedeva due ore di maledizioni, caffè tiepido e zoom infiniti su PDF stropicciati può essere svolto in… 40 secondi. E con una precisione che farebbe arrossire l’archivista più zelante di Westminster.

Joe Tsai: Alibaba e la rivoluzione open source: la sfida che scuote l’AI e il cloud

Nel cuore pulsante di Parigi, durante il palcoscenico ipertecnologico di VivaTech, Joe Tsai, presidente di Alibaba Group Holding, ha lanciato una delle dichiarazioni più taglienti e, allo stesso tempo, strategicamente calcolate dell’anno. Aprire i modelli di intelligenza artificiale—quei giganteschi LLM che oggi dominano il panorama digitale—non è solo un gesto di altruismo tech, ma una mossa calibrata per sbloccare una marea di applicazioni AI e, soprattutto, per rilanciare una delle divisioni più strategiche di Alibaba: il cloud computing.

Se vi aspettavate una svolta convenzionale, vi sbagliate. Tsai, con la sua tipica ironia da veterano, ha definito il periodo appena trascorso per Alibaba come “un’era di grandi tormenti”. Eppure, proprio da quel caos, emerge la strategia chiave: democratizzare l’AI, liberarla da ogni vincolo di esclusività, spingendo così l’intero ecosistema verso una domanda esplosiva di infrastrutture cloud.

Android 16 ci guarda vivere: aggiornamenti in tempo reale, o solo il teatro dell’effimero?

Chiunque abbia mai fissato la piccola barra di stato di uno smartphone durante l’attesa di una pizza o di un Uber in ritardo sa bene quanto il tempo possa trasformarsi in un’entità maligna. Con Android 16, Google vuole redimere questa microfrustrazione quotidiana, lanciando finalmente i Live Updates sui Pixel, e promettendo – come sempre – una rivoluzione.

Ma sotto l’apparenza di una novità utile, si cela l’ennesimo rituale liturgico del gigante di Mountain View: un’imitazione dell’iPhone con qualche funzione in più, un’estetica un po’ più snella, un’eco di Material 3 che ancora non si vede ma aleggia come un fantasma promesso.

Google home app, l’illusione della casa intelligente che pensa per te

Nel 2025, la smart home è sempre più simile a un reality show in cui non solo le pareti hanno orecchie, ma adesso anche occhi, dita, e — sorpresa — un’intelligenza artificiale con nome da divinità romana: Gemini. Con l’ultima raffica di aggiornamenti al suo Home app, Google sta riscrivendo le regole del controllo domestico, travestendolo da comodità mentre, a ben vedere, ti invita a vivere in un habitat dove ogni gesto è mediato da un’interfaccia. Bentornati nella gabbia dorata della domotica 3.0.

Cominciamo da quello che suona come un “era ora”: il supporto picture-in-picture per le Nest Cam su Google TV. Un dettaglio apparentemente minore, ma dal valore psicologico potente: puoi guardare Netflix mentre controlli se il cane ha finalmente smesso di distruggere il divano. È il tipo di aggiornamento che nessuno aveva chiesto a voce alta, ma che, come un assistente troppo solerte, Google ti regala comunque. Una piccola finestra nell’angolo dello schermo, una grande apertura sul panopticon domestico. Più Black Mirror che Smart Living.

Sam Altman: Quanto costa davvero un pensiero? il prezzo dell’intelligenza artificiale calcolato in watt, acqua e bugie

L’intelligenza artificiale è idrovora. Non nel senso metafisico, ma molto concreto: ogni parola che leggi, ogni domanda che fai a ChatGPT, ogni linea di codice predetta da un LLM brucia corrente e assorbe acqua. Non solo silicio e matematica, ma infrastruttura fisica e risorse naturali, come ogni altra tecnologia della storia.

Sam Altman, CEO di OpenAI e oracolo involontario dell’era post-digitale, ha recentemente pubblicato un post dove tenta di rassicurare (o distrarre?) l’opinione pubblica con un dato apparentemente innocuo: “una query media di ChatGPT consuma circa 0.000085 galloni d’acqua, ovvero circa un quindicesimo di cucchiaino”. Messa così, l’IA sembra meno un mostro energetico e più una tisana tiepida.

Gazometro ribolle: NAM 2025 e NAMEX riscrivono la mappa digitale italiana

Al Gazometro, ex impianto industriale rigenerato nel quartiere Ostiense — non certo tra i marmi del Campidoglio — il 11 giugno 2025 si è celebrato il Namex Annual Meeting, meglio noto come NAM 2025: un’accensione di infrastrutture silenziose e cifrate, una celebrazione pragmatica della rete sotto la cupola storica di Roma

Ogni tanto, persino nel futuro si inciampa. Mentre tutti si affannano a raccontare la prossima grande innovazione, il prossimo pivot, la roadmap a 18 mesi (che nessuno rispetterà), c’è qualcuno che accende un piccolo riflettore storto su ciò che è stato. Non per nostalgia, ma per legittimità. Perché il presente non nasce mai da zero. E se non riconosci chi ha acceso la miccia, come Namex finisci per raccontare una favola storta l’ennesima.

Le cifre non mentono. Superati 1 terabit per secondo di traffico già a gennaio 2025, e picchi di 1,122 Tbps toccati durante una partita Atletico–Real Madrid trasmessa da Prime Video a marzo. Un balzo in avanti che racconta molto più di numeri: è l’autorevolezza infrastrutturale che si afferma, mentre il cuore silenzioso della rete scorre sotto Roma.

Moratoria o morfina? Il tentativo Trumpiano di sedare l’AI con una legge che congela il futuro

Se volevate un esempio plastico del connubio perverso tra lobby, politica miope e Big Tech in cerca di deregulation, eccolo servito su piatto d’argento: un emendamento, sepolto nella finanziaria proposta da Donald Trump — il suo “big, beautiful bill” — che di fatto congela per dieci anni qualsiasi regolazione statale sull’intelligenza artificiale. Una mossa che ha più il sapore di una sabotaggio preventivo che di una visione strategica. Ma forse è proprio questo il punto: la strategia è uccidere il dibattito sul nascere, mentre si finge di attendere un’ipotetica, mai vista regolamentazione federale.

L’emendamento non si limita a fermare la corsa alla regolazione locale — la sola che negli ultimi anni abbia prodotto qualcosa di concreto — ma revoca retroattivamente anche quelle poche norme già esistenti. Uno stop totale, indeterminato e regressivo, imposto nel momento esatto in cui il settore AI accelera verso un’adozione massiva e incontrollata.

Amazon punta sull’intelligenza artificiale per vendere di più, anche se non te ne accorgi

Non serve più Spielberg, né un’agenzia pubblicitaria da sei zeri: basta un clic. Amazon ha aperto le gabbie e lanciato ufficialmente la sua Video Generator, l’arma definitiva per trasformare ogni venditore da garage in un creativo hollywoodiano — o almeno così sembra. La nuova versione del tool, disponibile per tutti i seller USA, promette risultati fotorealistici in meno di cinque minuti. Ma è nella promessa nascosta che si cela l’inquietudine: pubblicità così convincenti che potresti non accorgerti che sono generate da un algoritmo.

Questa non è l’ennesima funzione accessoria, è una svolta strutturale nella monetizzazione emozionale. I nuovi “trucchi” dell’IA includono dinamiche di movimento, scene concatenate con attori umani o animali, overlay testuali e soundtrack da spot TV. Il prodotto non è più statico: adesso si muove, vive, ti guarda, ti parla. Soprattutto, ti persuade.

Sesto potere, l’occhio che guarda dentro la Rete NAM 2025 Namex

Avete appena letto un titolo. Sembra una banalità, ma non lo è. Perché dentro quella sequenza di parole che ha il ritmo ipnotico di un trip psichedelico anni Novanta, ma la consistenza mutante dell’AI generativa c’è un condensato compresso di trent’anni di storia digitale.

Lì dentro, nel logo dell’evento, in quell’occhio che osserva e si lascia osservare, c’è Internet o forse sarebbe meglio dire la Rete, dal 1995 al 2025. Una narrazione visiva disordinata, volutamente confusa, che riflette perfettamente ciò che è diventato oggi il nostro mondo connesso: un’esplosione di dati, immagini, emozioni, indignazioni, euforia, angoscia.

NAM2025, tenutosi oggi a Roma, ha avuto il coraggio di mettere a fuoco proprio questa domanda torbida, centrale, quasi inconfessabile: dove sta andando Internet? Una questione che sa di vertigine, come guardare un’infrastruttura globale in preda a convulsioni da post-modernità accelerata.

Tra trade e tech, a Londra si gioca la guerra fredda del silicio

Lancaster House non è solo un palazzo neoclassico con moquette spessa e stucchi dorati. Questa settimana è il set di una commedia geopolitica in stile kafkaiano: Stati Uniti e Cina fingono di negoziare, mentre tutti – loro per primi – sanno che qui non si tratta di trovare accordi, ma di decidere chi scriverà le regole dell’intelligenza artificiale, dell’export tecnologico e del controllo sulle materie prime del XXI secolo. Welcome to la nuova Guerra Fredda, versione 5G.

Non è un vertice, non è una conferenza, non c’è un comunicato ufficiale. Solo stanze chiuse, facce tese e un’unica vera valuta sul tavolo: il dominio strategico su chip, rare earths e software di progettazione avanzata. La parola “tariffa” non compare più, ha lasciato il posto a un linguaggio più crudo, chirurgico, spietato: “export controls”.

Sei solo, ma almeno hai un bot: l’inganno emotivo dell’intelligenza artificiale

C’è qualcosa di profondamente ironico nel fatto che un algoritmo, incapace di provare empatia, sia diventato il nuovo “confidente emotivo” di tre quarti degli esseri umani coinvolti in uno studio. No, non è uno sketch di Black Mirror. È la realtà che emerge dalla ricerca pubblicata da Waseda University, che ha messo a nudo un fenomeno tanto inquietante quanto rivelatore: la nostra tendenza a proiettare sulle intelligenze artificiali le stesse dinamiche relazionali che viviamo con gli esseri umani. Triste? Forse. Umanissimo? Decisamente. Strategico? Per le Big Tech, più che mai.

La parola chiave è emotional attachment to AI, un campo che, se vi sembra marginale o curioso, rischia invece di diventare il prossimo fronte dell’ingegneria psicologica digitale. Il team guidato da Fan Yang ha sviluppato un raffinato strumento diagnostico — l’EHARS, Experiences in Human-AI Relationships Scale — per misurare con criteri psicometrici la qualità e l’intensità dell’attaccamento umano verso le intelligenze artificiali conversazionali. In pratica: quanto siamo emotivamente dipendenti dai chatbot. La risposta breve è “troppo”.

L’era dell’ovvio straordinario: Altman, ChatGPT e l’inizio della singolarità morbida

C’è qualcosa di paradossale nella calma con cui Sam Altman annuncia che l’umanità ha appena varcato un “event horizon” verso la superintelligenza. Come se stesse commentando la temperatura del tè, il CEO di OpenAI ha scritto: “Siamo oltre il punto di non ritorno; il decollo è iniziato.” È il tipo di frase che dovrebbe causare panico, o almeno un improvviso bisogno di respirare profondamente. Invece, niente. La reazione globale? Un misto di entusiasmo, scetticismo e una scrollata di spalle tecnologicamente rassegnata.

Secondo Altman, ci stiamo avviando verso quella che chiama singolarità morbida, un passaggio dolce ma inesorabile verso l’intelligenza digitale superiore. Non la distopia di Skynet, non l’esplosione prometeica di una mente artificiale che ci ridicolizza; piuttosto, una transizione “gestibile”, graduale, quasi noiosamente prevedibile. Il problema è che, come ogni vera rivoluzione, anche questa si maschera da evoluzione lineare.

Zuckerberg punta Wang: l’acquisto di metà cervello per intero e evitare lo scrutinio

Se ti sembrava che Mark Zuckerberg fosse solo ossessionato dai visori per il metaverso, o dalla realtà aumentata a suon di miliardi bruciati in R&D come se fossero marshmallow in un falò estivo, preparati a cambiare scenario. Ora l’oracolo di Menlo Park guarda dritto nel cuore dell’AI generativa — e lo fa con una delle mosse più astute, se non spregiudicate, della Silicon Valley degli ultimi dodici mesi.

Meta è infatti in trattativa avanzata per acquistare il 49% di Scale AI, valutando la startup fondata da Alexandr Wang la modica cifra di 14,8 miliardi di dollari. Sottolineiamo quel 49%: è il numero magico che consente a Meta di non scatenare automaticamente il famigerato scrutinio normativo sulle acquisizioni, soprattutto quello della Federal Trade Commission. Un controllo che, ultimamente, sembra avere le lame più spuntate di un vecchio rasoio Bic.

Tesla lancia il suo show texano mentre Uber e Wayve lanciano la sfida ai tassisti: Londra sarà la prima giungla urbana dei robotaxi

La rivoluzione della mobilità autonoma non si sta più avvicinando. È già parcheggiata al semaforo, con il motore acceso. E mentre Elon Musk gioca a fare il Kubrick del traffico texano con le sue Model Y che sfrecciano senza mani ad Austin, nel cuore del vecchio continente si prepara una partita ben più strategica, ben più pericolosa — e ben più affascinante.

A Londra, Uber ha deciso che è tempo di fare sul serio con l’intelligenza artificiale applicata alla mobilità urbana. La partnership con Wayve, startup britannica a metà tra Cambridge Analytica e un film cyberpunk, non è un semplice “test”. È l’inizio di una guerra. Una guerra ai conducenti umani, alle regole scritte da esseri umani, e forse — azzardiamolo — alla logica lineare con cui abbiamo gestito le città nell’ultimo secolo.

Mistral rilancia il pensiero computazionale Magistral: fine delle chiacchiere, comanda la logica

La Silicon Valley è in fibrillazione. Non per un’altra app che consiglia quale ramen ordinare alle 2 di notte, ma per qualcosa di più radicale: il ritorno del pensiero logico nelle AI. E come spesso accade, la rivoluzione non arriva da chi ha già vinto, ma da chi ha deciso che il gioco era truccato. Mistral, la startup francese che da mesi dà fastidio agli oligarchi dell’intelligenza artificiale, ha alzato il livello della competizione: due nuovi modelli, una sola direzione. Quella della catena di pensiero. Niente più predizioni a pappagallo: ora l’AI ragiona. E non è una metafora.

In un’epoca in cui le AI sembrano più interessate a produrre sciami di contenuti che a comprenderli, la scelta di Mistral suona quasi anacronistica: pensare invece di parlare. La mossa, apparentemente semplice, è in realtà chirurgica. Due modelli, distinti ma sinergici: Magistral Small, open source e democratico, e Magistral Medium, ottimizzato per l’impresa e blindato come una cassaforte svizzera.

WWDC 2025 Siri, l’assistente fantasma: Apple Intelligence svela la sua debolezza più umana

In mezzo a una WWDC 2025 imbottita di funzioni AI, citazioni da Formula 1 e un pianista che canta recensioni di app – in uno di quei momenti tanto tipicamente Apple quanto inutilmente performativi – la grande assente era proprio lei: Siri. Non assente fisicamente, certo. Ma assente nello spirito, nei fatti, nella sostanza. Un’assenza che grida più di qualsiasi presentazione sul palco.

Apple ha parlato molto, come sempre. Ha evocato l’onnipresente “Apple Intelligence” (il branding che cerca disperatamente di restituire un’aura proprietaria a qualcosa che, in fondo, è OpenAI sotto il cofano), ha sbandierato aggiornamenti per FaceTime, Messaggi, traduzioni in diretta e una LLM “on-device”. Ma quando si è trattato dell’assistente virtuale che avrebbe dovuto essere la colonna sonora della rivoluzione AI, la voce di Siri è rimasta flebile, quasi imbarazzata. Più che un upgrade, un’interruzione diplomatica.

OpenAI taglia il peso di Microsoft, DeepSeek sfrutta la Cina: la vera partita sull’intelligenza artificiale

Questa non è una guerra di brevetti, ma una resa dei conti globale.

OpenAI sta preparandosi a ridisegnare le regole del gioco con Microsoft. Fino al 2030, OpenAI attualmente versa a Microsoft il 20 % del fatturato generato dai suoi servizi sul cloud Azure. Ma sta rinegoziando per dimezzare questa quota, fino al 10 % entro fine decennio.

E tu, lettore, sei seduto in prima fila. Ti conviene abbonarti a Rivista.AI offriamo visioni, piedi nel concreto, occhi puntati sui trend globali e spazio per riflessioni provocatorie. Se vuoi davvero capire chi governerà l’AI e perché o se preferisci restare un semplice spettatore dell’ennesima “next big thing”, puoi accedere a reportage esclusivi.

E come diceva un vecchio saggio tecnologico: “È facile essere pionieri finché non ti chiedono di pagare il biglietto.” Rivista.AI ce l’ha, il biglietto e l’occhio per chi guida davvero il futuro dell’intelligenza artificiale.

Apple tenta la rivoluzione silenziosa dell’intelligenza artificiale mobile

Se ti sei distratto per un secondo durante il keynote di Apple, potresti aver perso il dettaglio più esplosivo degli ultimi anni nel mondo dell’AI: l’introduzione del framework Foundation Models per eseguire modelli LLM da 3 miliardi di parametri direttamente on-device, cioè sul tuo iPhone. Sì, hai letto bene: niente cloud, niente latenza, niente connessione necessaria. Solo silicio, efficienza e controllo locale. La cosa più simile a un motore quantistico tascabile che Cupertino abbia mai osato proporre.

Apple, con la sua classica arroganza zen, lo ha annunciato senza fanfare isteriche, come se far girare un modello da 3B su un A17 fosse normale amministrazione. Ma sotto quella compostezza californiana, si cela una mossa strategica che potrebbe ribaltare l’intero equilibrio del mercato AI — e mandare nel panico chi oggi campa vendendo inference da cloud a peso d’oro.

AI.gov o l’algoritmo dell’Impero: la Casa Bianca reinventa la burocrazia col GPT. Happy Uploading, America

Benvenuti nell’era in cui l’intelligenza artificiale sostituisce l’intelligenza istituzionale, e la democrazia si trasforma in un backend API-first. Non è un distopico racconto di Gibson né una bozza scartata di Black Mirror: è l’America del 2025, dove l’innovazione di governo si chiama AI.gov e parla fluentemente il linguaggio dei Large Language Models. La fonte? Il codice sorgente pubblicato su GitHub. E come sempre, il diavolo si nasconde nei commit.

L’amministrazione Trump, evidentemente non ancora sazia di plot twist tecnocratici, ha deciso di lanciare una piattaforma di intelligenza artificiale gestita dalla General Services Administration, guidata da Thomas Shedd, ex ingegnere Tesla e fedelissimo del culto eloniano. Un tecnico più affine al codice che alla Costituzione. Il sito AI.gov – attualmente mascherato da redirect alla Casa Bianca – è il punto focale di una nuova strategia: usare l’AI per “accelerare l’innovazione governativa”. La parola chiave, naturalmente, è “accelerare”, il verbo preferito da chi taglia, privatizza, automatizza.

La rivoluzione silenziosa delle onde di luce: così la Cina cerca il sorpasso quantico tra sanzioni e fotoni

Nel cuore pulsante della provincia di Jiangsu, a Wuxi, si muove qualcosa che non fa rumore. Nessun sibilo di elettroni, solo la danza silenziosa della luce su wafer di niobato di litio. Benvenuti nel futuro fotonico della Cina, dove CHIPX – una creatura semiaccademica nata dall’ecosistema tentacolare di Shanghai Jiao Tong University – ha appena acceso la macchina del tempo. O meglio, la macchina del sorpasso.

Siamo abituati a pensare ai chip come a microforeste di silicio, una geometria di transistor che obbedisce ai limiti della fisica classica. Eppure, in questo preciso momento, la Cina ha scelto un’altra via: quella dei chip fotonici, dove le informazioni viaggiano sotto forma di luce e non di elettroni, dove la velocità di elaborazione può toccare vette esoteriche, e dove l’Occidente, complice la propria arroganza sanzionatoria, rischia di restare al palo.

Meta si compra metà dell’intelligenza: Zuckerberg punta $15 miliardi su Scale AI per rincorrere l’AGI

C’è un momento, nella storia di ogni impero, in cui il suo sovrano sente che gli Dei stanno ridendo di lui. Mark Zuckerberg, dopo aver provato a reinventare il concetto di “mondo” con il Metaverso (fallendo nella realtà quanto lo ha fatto la Second Life del 2008), ha deciso che il futuro non è virtuale, ma cognitivo. Il nuovo feticcio della Silicon Valley si chiama AGI, intelligenza artificiale generale. E per raggiungerla, Meta ha deciso di firmare quello che è, secondo The Information, il più grosso assegno mai staccato fuori dalle proprie mura: quasi 15 miliardi di dollari per acquisire il 49% di Scale AI. Tradotto: Zuckerberg si compra quasi metà della benzina che alimenta l’industria dell’AI globale.

Italia, startup e intelligenza artificiale

C’è un’Italia che parla di intelligenza artificiale come se fosse a cena con Elon Musk e c’è un’altra Italia che, più realisticamente, cerca ancora di capire come configurare il Wi-Fi aziendale. In mezzo ci sono loro: le startup AI italiane, una fauna affascinante quanto rara, spesso invocata nei panel dei convegni con tono salvifico, ma ignorata dai capitali che contano.

Secondo Anitec-Assinform, metà delle oltre 600 imprese digitali innovative italiane si fregia dell’etichetta “AI-enabled”. Ma definirle startup di intelligenza artificiale è come dire che chi ha una Tesla è un esperto di energie rinnovabili. L’uso della tecnologia, nella maggior parte dei casi, è decorativo, marginale, ornamentale. Non guida, non decide, non cambia il modello di business. È là per fare scena, come un’insegna a LED su un ristorante vuoto.

EHDS: La salute digitale europea tra sogni algoritmici e burocratici

Benvenuti nel teatro dell’assurdo digitale europeo, dove il sogno di una sanità interconnessa e intelligente si scontra con la realtà di un mosaico normativo che farebbe impallidire persino Kafka. Nel cuore di questa pantomima c’è l’European Health Data Space (EHDS), un progetto che promette miracoli tecnologici – cartelle cliniche interoperabili, algoritmi predittivi, cure personalizzate – e invece consegna alla classe dirigente europea un guazzabuglio di piattaforme regionali in mano a aziende private spesso più interessate al business che al bene comune.

Immaginate di rompervi una gamba sulle Alpi francesi nel 2034. In teoria, l’ortopedico di Grenoble dovrebbe accedere alla vostra cartella clinica italiana in tempo reale, somministrarvi i farmaci giusti e aggiornare un algoritmo che previene future fratture. In pratica, buona fortuna. Le infrastrutture sono disgiunte, i protocolli blindati, i dati confinati in recinti nazionali blindati da egoismi burocratici che definire provinciali è un eufemismo. L’idea di una Federazione delle Repubbliche Sanitarie Regionali europee si infrange contro la realtà dei governi che preferiscono affidare la gestione a soggetti terzi — spesso poco trasparenti — e difendere il proprio orticello digitale come un’antica proprietà feudale.

Paramount, Disney e Apple: l’intelligenza artificiale non basta, lo streaming si ridisegna

Buon martedì, o come piace dire ai CFO in fuga, «giorno di svolte impreviste». In un mondo dove la tecnologia e il business si inseguono più velocemente di un aggiornamento di iOS, la giornata del 10 giugno 2025 si apre con un cocktail di movimenti aziendali degni di un thriller finanziario. Paramount perde il suo direttore finanziario, Disney stacca l’assegno da mezzo miliardo per chiudere il cerchio Hulu, Apple annuncia l’ennesima puntata del suo feuilleton sull’intelligenza artificiale, mentre le ombre di Warner Bros. Discovery si preparano a dividersi, e i razzi di Bezos si prendono una pausa imprevista.

Ilya Sutskever: Quando l’intelligenza artificiale guarda l’abisso e noi ci vediamo dentro

Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.

Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.

Pagina 1 di 134

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie