Anthropic ha esteso Claude Code, finora confinato all’ambiente CLI (terminale), a un’interfaccia web accessibile da browser: basta accedere a claude.ai e cliccare la tab “Code” se si ha un abbonamento Pro (20 $/mese) o Max (100 $/200 $/mese).
L’idea è semplice: rimuovere la barriera d’ingresso non serve più aprire un terminale — e fare in modo che gli sviluppatori possano istanziare agenti AI per il codice ovunque, anche da browser. Questo spinge Claude Code in competizione più diretta con strumenti che già oggi operano via web (GitHub Copilot, Cursor, soluzioni di Google, OpenAI).Dietro questa mossa c’è un cambio strategico: da strumento “power user via terminale” a piattaforma agente ubiqua, fluida, pronta all’adozione orizzontale.
Categoria: News Pagina 13 di 135
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Analizziamo con rigore quanto è successo e soprattutto cosa ci insegna, non da fan né da detrattore, ma da Technologist che guarda il sistema con occhio clinico.
L’episodio di partenza è semplice nella sua clamorosa goffaggine. Un tweet (poi cancellato) di Kevin Weil, VP di OpenAI per la scienza, affermava che GPT-5 avrebbe trovato soluzioni per 10 problemi di Erdős che erano considerati “non risolti”, e avrebbe fatto progressi su altri 11.
An ontology for Conservation in Architecture
Il libro Conservation Process Model (2025), edito da Sapienza Università Editrice in open access (pdf disponibile, 306 pagine, licenza CC BY-NC-ND) è il risultato di un percorso scientifico durato decenni da parte delle professoresse Marta Acierno e Donatella Fiorani, con l’obiettivo ambizioso di definire un’ontologia dedicata al dominio della conservazione architettonica. L’idea cardine: non lasciare che i dati restino “confinati” in silos, ma costruire un linguaggio concettuale che permetta di mettere ordine nel caos, favorire interoperabilità, ragionamento automatico e continuità della conoscenza nel tempo.
Quando IBM decide di muoversi, lo fa con la solita calma glaciale di chi sa che il mondo si muoverà comunque nella sua direzione. L’annuncio del 20 ottobre 2025 sancisce un’alleanza strategica che, per chi legge tra le righe del mercato, va ben oltre una semplice partnership tecnologica.
IBM e Groq uniscono le forze per portare l’intelligenza artificiale agentica dall’arena sperimentale ai processi produttivi reali, attraverso un’integrazione profonda tra watsonx Orchestrate e la piattaforma GroqCloud, basata sull’architettura LPU.
La Silicon Valley ha smesso di essere un luogo. È diventata una condizione mentale, una forma di bipolarismo tecnologico in cui ogni settimana si alternano visioni messianiche e crisi identitarie. Benioff parla come un profeta stanco che non crede più nei suoi miracoli, Musk sfida la fisica e la legge di gravità finanziaria, Sutskever medita in silenzio sulla coscienza delle macchine, mentre Google tenta di convincere il mondo che la Privacy Sandbox non sia un modo elegante per rimpiazzare i cookie con un recinto proprietario.
In un mondo dove l’AI genera testi più eloquenti di un discorso presidenziale e immagini capaci di ingannare persino i più esperti, molto probabilmente la domanda che dobbiamo porci non è più se regolare questa tecnologia, ma come. Viviamo, inutile nascondercelo, in un’arena geopolitica dove l’Europa brandisce il righello della compliance come un monito biblico, gli USA accelerano a tavoletta sul binario dell’innovazione “libera per tutti” (o quasi) e la Cina orchestra un balletto tra sorveglianza e supremazia tecnologica.
C’è sempre un momento in cui la Silicon Valley decide di vendere al mondo un sogno così lucido da sembrare inevitabile. Poi arriva il risveglio, e con esso il conto. Salesforce Agentforce è l’ultimo esempio di questa coreografia digitale: un prodotto annunciato come il futuro dell’intelligenza artificiale enterprise, ma che somiglia sempre più a una scommessa disperata travestita da innovazione. Marc Benioff, il suo fondatore e oracolo di un capitalismo spirituale travestito da tecnologia, ha promesso che l’IA avrebbe trasformato ogni reparto vendite, ogni team di supporto, ogni interazione con il cliente. Il problema è che, come sempre, la realtà aziendale è meno glamour di un keynote.

OpenAI ha annunciato giovedì sera di aver “messo in pausa” i deepfake di Martin Luther King Jr. sulla sua app sociale Sora dopo che gli utenti hanno creato video AI “irrispettosi” del leader per i diritti civili. Ora permette ai rappresentanti o agli eredi di figure storiche di scegliere di non far usare la loro immagine. La decisione è arrivata dopo le proteste della successione di King e di sua figlia Bernice King, che ha chiesto sui social media di smettere di inviare video AI di suo padre. King è tra molte celebrità e figure decedute la cui immagine appare su Sora, spesso in modi scortesi e offensivi.

Wikipedia sta perdendo visitatori umani. Non utenti distratti, non curiosi occasionali, ma persone in carne e ossa. La Wikimedia Foundation ha ammesso un calo di traffico umano di circa l’8% tra maggio e agosto 2025 rispetto allo stesso periodo dell’anno precedente, dopo aver scoperto che una parte significativa delle visite proveniva da bot mascherati da esseri umani, in gran parte provenienti dal Brasile. È una scoperta imbarazzante ma rivelatrice: il più grande archivio di conoscenza condivisa della storia moderna è diventato terreno fertile per algoritmi che si travestono da lettori. Un paradosso perfetto per l’era dell’intelligenza artificiale generativa.
AI ha acceso una nuova rivoluzione industriale e stavolta gli Stati Uniti non vogliono guardare da lontano. NVIDIA e TSMC stanno costruendo l’infrastruttura che alimenta le fabbriche di intelligenza artificiale, direttamente sul suolo americano. Jensen Huang, fondatore e CEO di NVIDIA, ha visitato lo stabilimento TSMC a Phoenix per celebrare il primo wafer NVIDIA Blackwell prodotto negli Stati Uniti, segnando l’inizio della produzione di massa di Blackwell in patria.
Google Research ha appena presentato LAVA (Lifetime-Aware VM Allocation), un algoritmo di scheduling con intelligenza artificiale che re-predice continuamente la “durata residua” delle VM in esecuzione per comprimere i server cloud come fosse un Tetris: l’obiettivo è ridurre lo spazio “sprecato” sui nodi e migliorare l’efficienza fino a qualche punto percentuale. (Scopri di più sul blog ufficiale di Google) (Vedi research.google)
Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.
Nel libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino Roncaglia fa una cosa che pochi accademici italiani osano: affronta di petto la collisione fra epistemologia classica e intelligenza artificiale generativa. È un terreno scivoloso, dove la filosofia incontra la programmazione e il sapere diventa un software imperfetto. Roncaglia lo sa, e come ogni architetto consapevole del rischio di crollo, costruisce con pazienza un edificio che è insieme teoria, critica e visione.
Nel suo impianto, due figure si fronteggiano come divinità greche costrette a collaborare. L’Architetto, custode dell’ordine enciclopedico, convinto che il sapere debba essere strutturato, verificabile, gerarchico. L’Oracolo, entità generativa, probabilistica, che parla per approssimazioni, sforna risposte e versi con la stessa indifferenza statistica con cui un generatore casuale produce meraviglia. Uno costruisce il sapere, l’altro lo prevede. Entrambi pretendono di conoscerlo.
Oracle AI data platform e il nuovo impero dei dati intelligenti
C’è un momento preciso in cui le rivoluzioni tecnologiche smettono di essere promesse e diventano infrastruttura. Quel momento è arrivato per l’intelligenza artificiale enterprise, e ha un nome che suona come un paradosso della storia industriale: Oracle AI Data Platform. L’azienda che per decenni ha incarnato la solidità monolitica dei database si è reinventata come architetto di un’AI aperta, distribuita e perfettamente integrata con la governance dei dati. Un gesto strategico da veterano, non da sognatore di Silicon Valley.
Se qualcuno avesse sperato che la politica estera americana seguisse logiche prevedibili, il quadro attuale è una doccia fredda. Il conflitto in Ucraina si avvicina al quarto anno e, sebbene il mondo si sia abituato a una Russia apparentemente invincibile, la realtà sul terreno racconta una storia diversa. L’esercito di Putin è logorato, le finanze statali sono sotto pressione e l’isolamento diplomatico è più evidente di quanto qualsiasi propaganda crei illusioni. Paradossalmente, proprio in questo scenario di debolezza estrema, l’ex presidente Trump sembra incapace di applicare la leva che lo ha reso famoso nel gioco politico: colpire i punti deboli dell’avversario per massimizzare il risultato.
Alibaba Group Holding ha appena scosso il mondo dell’intelligenza artificiale e del cloud computing con l’annuncio di Aegaeon, un sistema di pooling computazionale che promette di rivoluzionare il modo in cui le GPU vengono utilizzate per servire modelli di AI su larga scala. Secondo quanto riportato in un paper presentato al 31° Symposium on Operating Systems Principles a Seoul, il nuovo sistema ha permesso di ridurre il numero di GPU Nvidia H20 necessarie per gestire decine di modelli fino a 72 miliardi di parametri da 1.192 a soli 213 unità, un taglio impressionante dell’82 per cento. La beta di Aegaeon è stata testata per oltre tre mesi nel marketplace di modelli di Alibaba Cloud, evidenziando come la gestione delle risorse sia stata tradizionalmente inefficiente.
La corsa all’intelligenza artificiale sta riscrivendo le regole dell’energia negli Stati Uniti, e non in modo elegante. The AI era is giving fracking a second act, un colpo di scena per un’industria che già durante il boom dei primi anni 2010 veniva accusata di avvelenare falde acquifere, provocare terremoti indotti e prolungare la dipendenza dai combustibili fossili. Le aziende AI stanno costruendo data center mastodontici vicino ai principali siti di produzione di gas, generando spesso energia in proprio sfruttando fonti fossili. Una tendenza in gran parte oscurata dai titoli sulle applicazioni AI in sanità o lotta al cambiamento climatico, ma destinata a ridefinire le comunità che ospitano queste strutture.
Agentic AI e la rivoluzione silenziosa dei modelli operativi aziendali
L’intelligenza artificiale ha smesso di essere una promessa lontana. Non si parla più di strumenti che aiutano a fare meglio ciò che già facciamo, ma di agenti AI che prendono decisioni, orchestrano processi e, in qualche modo, ridefiniscono il significato stesso di lavoro in azienda. IBM e Oracle non si limitano a lanciare slogan: una survey di oltre 800 dirigenti C‑suite in 20 paesi delinea una tendenza netta e irrinunciabile. Il 67 % degli executive prevede che gli agenti agiranno autonomamente già entro il 2027. Non un esercizio di stile, ma un deadline strategico che chi guida aziende non può ignorare.
Oracle ha recentemente annunciato previsioni finanziarie ambiziose, delineando un futuro in cui l’intelligenza artificiale (AI) gioca un ruolo centrale nella sua strategia di crescita. Durante l’AI World Conference, l’azienda ha dichiarato di aspettarsi margini lordi tra il 30% e il 40% per i suoi progetti di infrastruttura AI, un dato che si allinea con altri giganti dei data center e contrasta con previsioni precedenti che indicavano margini lordi del 14% per i data center AI. Oracle ha utilizzato come esempio un progetto di infrastruttura AI di sei anni e 60 miliardi di dollari, prevedendo un margine lordo del 35% per tale contratto.

Il mondo della tecnologia sta assistendo a una silenziosa, ma epocale, mutazione: l’intelligenza artificiale sta abbandonando le server farm remote per insediarsi direttamente, in modo nativo e potente, nei nostri device quotidiani. Al centro di questa transizione c’è l’Apple M5, un sistema su chip che non è semplicemente una versione potenziata del suo predecessore, ma un vero e proprio ripensamento dell’architettura di calcolo. Apple, infatti, ha inciso il futuro su un processo a 3 nanometri, introducendo un concetto radicale: integrare acceleratori neurali all’interno di ogni core della GPU. Non più solo un muscolo grafico, ma una rete di piccoli, efficienti motori per l’IA, capaci di una potenza di calcolo GPU quadruplicata rispetto all’M4.
Negli Stati Uniti, l’intelligenza artificiale sta scoprendo la sua fonte di energia preferita: l’uranio arricchito. Non è una battuta, ma la cronaca di un accordo che unisce due mondi, quello dei reattori nucleari e quello degli algoritmi, in un matrimonio che sa di geopolitica, tecnologia e un pizzico di marketing apocalittico.
L’intelligenza artificiale sta rapidamente diventando un fattore determinante nell’evoluzione del panorama delle minacce informatiche, con un incremento del 47% degli attacchi basati su tecniche di intelligenza artificiale rispetto all’anno precedente ed entro la fine del 2025, gli incidenti cyber guidati da IA possano superare i 28 milioni a livello globale. È quanto emerge dal nuovo report AI Threat Landscape 2025, realizzato dal Cybersecurity Competence Center di Maticmind, appena presentato alla Camera dei Deputati.
La scintilla che ha acceso la miccia del dibattito è questa frase:>
“Ok this tweet about upcoming changes to ChatGPT blew up on the erotica point much more than I thought it was going to! It was meant to be just one example of us allowing more user freedom for adults.”
In un certo senso, Altman ha confessato la dinamica: un annuncio “ampio”, fatto per spingere una visione filosofica (“trattare gli adulti come adulti”), è stato divorato dal sensazionalismo “erotico” e lui è rimasto sorpreso che l’asticella del discorso pubblico sia scattata proprio lì.
Se pensavate che il traffico peggiore fosse quello del Grande Raccordo Anulare di Roma alle otto del mattino, ripensateci. Appena più in là, nello spazio, la situazione è anche peggiore. A marzo 2025 si contavano oltre 14.000 satelliti attivi e 27.000 oggetti tracciati tra rottami, razzi esausti e detriti spaziali in libera circolazione che, per avere un’idea, vuol dire un incremento del 31% in soli due anni. E come ogni autostrada affollata, anche l’orbita terrestre ora necessita di un buon sistema di guida autonoma.
Età minima digitale di 16 anni in Ue per social media, divieto automatico delle pratiche più dannose che creano dipendenza nei minori, norme sulle tecnologie e le pratiche persuasive come la pubblicità mirata, il marketing degli influencer, il design che crea dipendenza, i loot box e i dark pattern. Sono questi i contenuti della relazione adottata dalla commissione per il Mercato interno del Parlamento europeo, con 32 voti a favore, 5 contrari e 9 astensioni, in cui esprime preoccupazione per l’incapacità delle principali piattaforme online di proteggere i minori e mettono in guardia dai rischi legati alla dipendenza, alla salute mentale e all’esposizione a contenuti illegali e dannosi.
Il concetto di responsabilità ha l’aria di un vecchio fantasma: lo senti presente in ogni discussione morale, politica o giuridica, eppure resta sfuggente, come se sfuggisse a ogni definizione netta. Nel libro curato da Mario De Caro, Andrea Lavazza e Giuseppe Sartori, questa nebulosa viene sviscerata con un approccio che attraversa filosofia, neuroscienze e scienze sociali, mettendo a nudo la fragilità e la complessità della nostra idea di agire come individui responsabili.
La rivoluzione dell’AI non avviene sul palco visibile degli algoritmi: accade dietro le quinte, nel buio metallico dei datacenter, dove i veri contendenti si sfidano per il dominio sui supercomputer che alimentano i modelli generativi. Non è una guerra sui dati né sulle reti: è una guerra sull’elettricità, sul silicio e sulla capacità di orchestrare decine di migliaia di GPU come un esercito silenzioso.
Ai supercomputer con GPU non serve il fine scientifico predizione del tempo, simulazioni nuclearima la generazione di testo, immagine, agenti decisionali. E per farlo servono scale gigantesche: cluster con migliaia se non centinaia di migliaia di Nvidia H100, Google TPU o acceleratori custom emergenti. Questi sistemi non simulano fisica: predicono il prossimo “token” (parola, pixel, passo d’azione). Li potremmo chiamare predittori massivi.
Spotify ha appena firmato accordi con Sony, Universal, Warner e Merlin per sviluppare strumenti di intelligenza artificiale che mantengano artisti e autori al centro del processo creativo. Non è un gesto di marketing, ma una manovra strategica per costruire un futuro dove l’AI non sostituisce la musica, la amplifica. L’obiettivo dichiarato è semplice: lasciare ai musicisti il potere di decidere se e come l’intelligenza artificiale possa usare la loro voce o il loro suono, garantendo compensi trasparenti quando questo avviene.
Il sentimento ribassista sull’equazione costo-beneficio dell’intelligenza artificiale è diventato talmente diffuso che sembra ormai buon senso. Un nuovo consenso al contrario: chi non è scettico appare ingenuo. Poi arriva Oracle, l’azienda quasi cinquantennale che si è reinventata in cloud provider come mi ha spiegato ieri un VP Italiano “smart”, a Smith & Vollensky offrendomi un Pinot Noir di Sonoma, e l’azienda di fare quello che pochi hanno il coraggio di fare in un mercato in preda al dubbio: dichiararsi in ipercrescita. Non una metafora, ma una promessa contabile. E con la solennità dei suoi numeri, Oracle sostiene di essere un’azienda in “hypergrowth” grazie all’espansione dei suoi AI data center, i motori digitali che dovrebbero trainare la prossima decade del cloud.
Una nuova generazione di hacker sta mettendo in ginocchio infrastrutture critiche, grandi aziende e governi di tutto il mondo. Lo fanno più velocemente, in modo più astuto e con un livello di coordinamento mai visto prima. Secondo il National Cyber Security Centre (NCSC) del Regno Unito, si verificano circa quattro attacchi informatici di “rilevanza nazionale” ogni settimana, un aumento del 50% di incidenti capaci di paralizzare il governo centrale e i servizi essenziali.
La posta in gioco non è più solo il denaro: è l’influenza strategica e la destabilizzazione.
I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.
on è più fantascienza, ma neppure ancora realtà. L’energia da fusione, quella promessa quasi mitologica di generare elettricità infinita e pulita a partire dall’acqua, sta uscendo dal laboratorio e cominciando a parlare il linguaggio dell’intelligenza artificiale. O, più precisamente, il linguaggio di DeepMind, la divisione di Google che negli ultimi anni sembra avere come hobby quello di risolvere problemi che il resto del pianeta definisce “impossibili”. Dopo aver battuto campioni di Go e decifrato le pieghe delle proteine, ora tenta di addomesticare il caos più estremo dell’universo: il plasma.
Il Punteggio è Tutto? La ricerca di Sapienza NLP rileva un “Vuoto Critico”
Siamo abituati a celebrare i Modelli Linguistici Piccoli (SLM – Small Language Models) per le loro crescenti capacità e l’efficienza che portano nelle applicazioni di Intelligenza Artificiale (IA). Ma i loro punteggi di accuratezza riflettono davvero le loro reali capacità di ragionamento?
Sono all’aereoporto di LV di ritorno del AI World e mentre sorseggio una Hazy Little Thing Ipa stanco morto e penso di non scriverne più arriva la notizia. Oracle ha tentato di fare ciò che ogni colosso tecnologico fa quando gli investitori iniziano a guardare con troppa attenzione ai margini: raccontare una storia credibile di profitti futuri.
Clay Magouryk, co-CEO della divisione cloud, ha dichiarato che l’attività di noleggio dei server dotati di GPU Nvidia a OpenAI, Meta e ad altri sviluppatori di intelligenza artificiale genererà presto margini lordi compresi tra il 30% e il 40%. Un numero che suona come una sinfonia in un mercato dove le GPU si vendono a peso d’oro, ma dove la realtà contabile è meno poetica.
Come l’IA sta riscrivendo le regole dell’energia: data center sotto shock e megawatt fuori controllo

L’industria dell’intelligenza artificiale sta vivendo una rivoluzione energetica. Non si tratta solo di algoritmi più sofisticati o di modelli linguistici più potenti; è una questione di megawatt, infrastrutture e di come l’energia venga orchestrata in tempo reale. Il concetto di “new power layer” per l’orchestrazione dell’IA sta emergendo come una risposta strategica a questa nuova era.
Se credi che l’AI sia solo prompt da digitare e output da copiare, stai per fare un errore strategico. Prima di costruire modelli, costruisci comprensione. Il rischio maggiore non è fallire con un progetto di machine learning, ma partire senza capire i meccanismi che lo governano. Questa raccolta di libri selezionati a mano ti costringe a entrare nelle viscere dell’intelligenza artificiale, del machine learning e del deep learning, senza scorciatoie da hype digitale.


Uber prova a diventare la piattaforma definitiva per il lavoro flessibile e lancia negli Stati Uniti un pilota per far guadagnare ai suoi driver e corrieri soldi extra con microtask per addestrare modelli AI. Si tratta di registrare audio, caricare immagini o documenti in determinate lingue, con pagamenti che variano, ma a volte bastano pochi secondi per guadagnare un dollaro. L’idea è trasformare l’esercito globale di freelance di Uber in un concorrente di Scale AI e Amazon Mechanical Turk, piattaforme già note per far etichettare dati da umani per addestrare AI.

AI agents hanno smesso di essere solo un concetto astratto o un esperimento da laboratorio. Ora le aziende di intelligenza artificiale puntano a renderli davvero utili per utenti e professionisti. Anthropic ha annunciato Skills for Claude, un sistema di “cartelle” contenenti istruzioni, script e risorse che Claude può caricare per diventare più intelligente su compiti specifici, dal lavoro su Excel al rispetto delle linee guida del brand. Gli utenti possono anche creare Skills personalizzate, utilizzabili su Claude.ai, Claude Code, API e SDK, con aziende come Box, Rakuten e Canva già a bordo.
Microsoft sta spingendo Copilot oltre la semplice app di produttività per trasformare il PC in un assistente che non solo risponde, ma osserva e agisce. L’ultima mossa? Il nuovo wake word “Hey, Copilot!” che permette di interagire con Windows 11 tramite voce. Mehdi, uno dei dirigenti chiave, lo definisce il “terzo meccanismo di input” del PC, dopo tastiera e mouse. Non sostituisce il tradizionale metodo di lavoro, ma promette un’interazione più naturale e, a detta sua, “piuttosto profonda”.

I data center AI di OpenAI ad Abu Dhabi sono effettivamente in fase di costruzione.
Le foto del cantiere del data center negli Emirati Arabi Uniti, pubblicate giovedì, mostrano l’imponenza degli edifici che, secondo OpenAI e i suoi partner Stargate, Oracle, NVIDIA, Cisco e SoftBank, ospiteranno 16 gigawatt di potenza di calcolo.