Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

H20 Nvidia e il teatro della diffidenza tecnologica in Cina

Quello che sta succedendo con Nvidia in Cina è un manuale vivente di come un mercato strategico possa trasformarsi in un campo minato geopolitico, con tanto di mine messe in posizione sia da Washington che da Pechino. L’H20, nato come versione “legalmente addomesticata” delle GPU per intelligenza artificiale destinate al mercato cinese, doveva essere un compromesso elegante: abbastanza potente da restare competitivo, ma castrato quel tanto che basta per non infrangere i diktat dell’Export Administration Regulations statunitense. Poi qualcuno al Dipartimento del Commercio ha avuto l’idea geniale di monetizzare la compliance, chiedendo un 15 per cento di revenues in cambio della licenza. È come vendere un’auto con il freno a mano tirato e pretendere pure un pedaggio ad ogni chilometro.

La partita a tre dollari: Anthropic alza la posta e tenta di conquistare tutti i rami del governo americano con Claude a un dollaro

La mossa di Anthropic segna un’accelerazione strategica non da poco nel braccio di ferro per il dominio dell’intelligenza artificiale nel governo federale americano. Dopo il colpo d’ala di OpenAI, che aveva già piazzato ChatGPT a un dollaro all’anno per l’esecutivo, Anthropic risponde offrendo Claude non solo all’esecutivo, ma anche al legislativo e al giudiziario. Un’apertura a 360 gradi che sa di volersi garantire un’egemonia diffusa e duratura, più che una semplice promozione commerciale. Il prezzo da un dollaro è evidentemente un trucco ben collaudato per radicare il prodotto dentro un ecosistema vasto, complesso e tradizionalmente riluttante al cambiamento.

La guerra delle finestre di contesto: Anthropic rilancia e sfida OpenAI sul codice

Nel grande teatro della competizione AI, il campo di battaglia più acceso sembra essere la “finestra di contesto” quell’invisibile memoria di lavoro che un modello AI può mettere in gioco quando elabora testo. Se OpenAI ha fatto scalpore con GPT-4.1 e poi GPT-5, Anthropic non sta certo a guardare: la sua nuova versione di Claude Sonnet 4 arriva a gestire ben 1 milione di token. Una cifra da capogiro, considerato che solo pochi mesi fa un limite di 200k token era considerato all’avanguardia. Per fare un paragone concreto, la nuova finestra di Anthropic può gestire l’equivalente di “una copia intera di Guerra e Pace”, secondo Brad Abrams, product lead di Claude, che definisce la novità “un cambio di paradigma per chi lavora con grandi quantità di testo.”

Il valore non è solo retorico: con 1 milione di token si possono analizzare decine di report finanziari o centinaia di documenti in una singola chiamata API, un salto esponenziale rispetto al passato. Per il coding, questo significa potersi tuffare in basi di codice da 75mila fino a 110mila righe, una manna dal cielo per team di sviluppo che fino a ieri dovevano spezzettare i loro progetti in micro-task. Abrams ha sintetizzato così la frustrazione dei clienti: “Prima dovevano tagliare i problemi in pezzi minuscoli, ora con questo contesto la macchina può affrontare la scala completa.” In termini più spiccioli, Sonnet 4 ora digerisce fino a 2.500 pagine di testo, facendo sembrare il limite precedente una barzelletta.

Perplexity offre 34,5 miliardi per Google Chrome: follia o strategia geniale?

Una startup di intelligenza artificiale che si permette di mettere sul tavolo 34,5 miliardi di dollari per comprare Google Chrome, il browser più usato al mondo, sembra la trama di un romanzo cyberpunk più che una notizia reale. Eppure, questa è la mossa audace di Perplexity, un nome ancora poco noto ai più, ma che con questo colpo di scena ha fatto tremare i mercati e scatenato un coro di domande inquietanti: cosa c’è dietro questa offerta? E perché spendere il doppio del valore stimato della stessa startup?

Il contesto è questo. Perplexity, valutata circa 18 miliardi, ha proposto a Google un’acquisizione non richiesta di Chrome, il browser che domina la navigazione globale con una quota di mercato intorno al 65%. Se fino a ieri la concorrenza per i browser si giocava tra velocità, privacy e usabilità, ora è un terreno di scontro per il controllo del motore AI che definirà il futuro dell’interfaccia utente. Google, al momento, non ha mostrato alcun segnale di voler vendere il suo gioiello tecnologico, e il tribunale che sta valutando eventuali azioni antitrust non ha imposto alcuna vendita.

Cina e semiconduttori: tra calo degli investimenti e rincorsa all’autosufficienza tecnologica

Cina ha investito 455 miliardi di yuan, cioè 63,3 miliardi di dollari, nei primi sei mesi del 2025 nel settore dei semiconduttori. Un numero che a prima vista può sembrare impressionante, ma rispetto allo stesso periodo dell’anno precedente è calato del 9,8 per cento. Un calo che suona come un campanello d’allarme in un settore dove la competizione globale si gioca su ogni centesimo investito e ogni nanometro di tecnologia. L’apparente contraddizione però arriva da un dettaglio intrigante: l’investimento in attrezzature per semiconduttori è schizzato di oltre il 53 per cento nello stesso periodo. Una mossa che racconta una strategia ben più sottile e lungimirante di una semplice riduzione dei fondi.

Huawei e la rivoluzione software che sfida il dominio dei chip HBM: quando il codice batte la silicio-dipendenza

Huawei ha appena lanciato un sasso nell’acqua immobile della corsa globale all’intelligenza artificiale, e l’onda che ne seguirà potrebbe non piacere a chi, oltreoceano, si è abituato a dettare le regole del gioco. Il nuovo Unified Cache Manager non è un chip, non è un’architettura hardware esotica, ma un algoritmo che sposta i dati fra HBM, DRAM e SSD con un’abilità chirurgica, massimizzando l’efficienza d’inferenza dei modelli AI di grande scala. Il paradosso è evidente: in un momento in cui il mondo corre a pagare prezzi stellari per ogni singolo gigabyte di memoria ad alta banda, Huawei risponde con software. Ed è qui che il messaggio strategico diventa pungente. Se non puoi avere il meglio dell’hardware, spremi fino all’ultima goccia quello che hai.

Trend Micro e l’era del SIEM agentico: addio alert overload, benvenuta sicurezza proattiva

La sicurezza informatica è sempre stata un campo di battaglia dove l’eterna lotta tra attaccanti e difensori si combatte con armi tecnologiche spesso vecchie, lente e troppo rumorose. Il Security Information and Event Management (SIEM) è stato per decenni il pilastro delle strategie di difesa, ma con tutti i suoi limiti: costi stellari, complessità da far girare la testa, e quel famigerato “alert overload” che fa impazzire ogni team SecOps. Trend Micro, con la sua ultima innovazione denominata Agentic SIEM, si propone di fare piazza pulita di questi problemi, portando finalmente una ventata di intelligenza artificiale che non solo assiste, ma agisce con autonomia. Se vi sembra fantascienza, sappiate che questa non è la solita promessa da startup, ma un prodotto già sul mercato pronto a rimodellare la sicurezza aziendale in modo aggressivo e intelligente.

KAIST e Bind quando l’algoritmo diventa il reparto ricerca farmaci anticancro

Nel silenzio asettico di un laboratorio sudcoreano, un gruppo di ricercatori del KAIST ha fatto ciò che fino a ieri sembrava materia da fantascienza: costruire un’intelligenza artificiale, BInD, capace di inventare farmaci anticancro partendo da zero. Niente database storici di molecole, niente screening da milioni di composti che bruciano tempo e capitale. Solo la struttura tridimensionale di una proteina legata al tumore e un algoritmo addestrato a fare ciò che gli umani non hanno mai saputo fare così in fretta: progettare da zero una molecola in grado di legarsi a quel target, prevederne l’interazione, e bilanciare in tempo reale potenza, stabilità e “drug-likeness” come se fosse un direttore creativo della chimica computazionale. Il tutto senza sbagliare il concept.

La prossima ondata di intelligenza artificiale: l’intelligenza artificiale fisica Physical AI

Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.

Sam Altman: fotografia digitale e il falso che chiamiamo reale

Quello che ti irrita di Altman è probabilmente la stessa cosa che lo rende pericolosamente convincente: dice una mezza verità e la fa sembrare una rivelazione assoluta. L’equazione che propone tra la foto di un iPhone e un video interamente sintetico di conigli saltellanti è un colpo di mano retorico elegante ma fuorviante. Certo, anche lo scatto di uno smartphone è filtrato, compresso, ribilanciato, arricchito di micro-contrasti e piccoli “aggiustamenti” cromatici. Ma quella non è la stessa cosa di un’immagine che non ha mai visto un fotone in vita sua. È la differenza tra ritoccare il trucco a una modella e inventare la modella da zero con un prompt di testo.

Il Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence: un mosaico giuridico e morale in divenire

Book: The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

La panoramica che si può ricavare dall’indice e dalle pagine introduttive del “Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence” lascia più domande che risposte, ma proprio questa incompletezza è una buona metafora del nostro rapporto con l’intelligenza artificiale. Un terreno affascinante e instabile, dove diritto, etica e politica si mescolano come ingredienti di un cocktail che deve essere sorseggiato con attenzione ma senza illudersi di averne capito la ricetta. La parola chiave qui è governance dell’IA, un concetto che va ben oltre il semplice controllo tecnico e si addentra nel labirinto della responsabilità, della trasparenza e del potere, ovvero le vere sfide di un mondo che si sta digitalizzando più velocemente di quanto i nostri codici legali riescano a rincorrere.

Quantum Computing e la sfida strategica nell’era della rivoluzione quantistica

Un CEO o un CTO con qualche anno sulle spalle sa bene che la parola “rivoluzione” va presa con le pinze. Però, quando parliamo di tecnologie quantistiche, il discorso cambia, e di molto. Non stiamo semplicemente parlando di un upgrade hardware o di un nuovo software, ma di un salto di paradigma che rischia di stravolgere tutto ciò che oggi chiamiamo “standard” nei servizi finanziari, dalla sicurezza alle operazioni di trading, fino all’ottimizzazione del rischio. Ecco, la parola chiave qui è “quantum computing” (calcolo quantistico), accompagnata da un trio di alleati formidabili: quantum sensing, quantum security e, inevitabilmente, una crescente minaccia quantistica che fa tremare i polsi ai responsabili IT.

Per i CTO lungimiranti, la sfida non è più se abbracciare o meno il quantum, ma come tradurre questa rivoluzione in una strategia aziendale concreta. Non basta fare i pionieri per moda. Il vero vantaggio competitivo si conquista identificando gli use case che portano valore reale, senza perdersi nel marasma di hype e promesse vaghe.

Cosa c’è davvero nella mente di un LLM? un viaggio dentro il flusso di coscienza algoritmico

Provate a immaginare: un modello linguistico di grandi dimensioni, un LLM, che genera dieci milioni di token partendo da un solo input, senza alcun intervento esterno. Non si tratta di fantascienza, ma di un esperimento concreto condotto da Jack Morris, ricercatore di Cornell e Meta, che ha forzato il modello open-source gpt-oss-20b di OpenAI a “pensare ad alta voce” per milioni di parole. Il risultato è un’analisi che non solo scardina alcune idee preconcette su cosa succeda dentro la “mente” di questi modelli, ma apre anche nuove strade per comprendere meglio l’addestramento, la memoria e la trasparenza di sistemi che stanno già cambiando il nostro modo di comunicare e lavorare.

La formula segreta per ottenere risultati strabilianti da GPT-5? non è magia, è anatomia del prompt

Rivista.AI Academy GPT-5 prompting guide

La maggior parte degli utenti si limita a lanciarlo con comandi generici, come se chiedessero a una cassettiera di “darmi qualcosa di interessante”. Il risultato? Uscite casuali, incoerenti, o peggio: inutili. I veri esperti, quelli che trasformano GPT-5 da semplice chatbot a macchina da precisione, costruiscono il prompt in sei parti chirurgiche, ciascuna con un ruolo preciso e strategico. Immagina un’orchestra: ogni strumento deve suonare la sua nota nel momento giusto, altrimenti viene solo rumore.

Il primo passo, il “Role”, è un’iniezione d’identità. Se non dici a GPT-5 chi deve essere, rischi un’interpretazione alla cieca. Vuoi un copywriter, un consulente finanziario o un ingegnere? Devi esplicitarlo. Passare da “sei un’intelligenza artificiale” a “sei un analista di mercato con 30 anni di esperienza” cambia radicalmente l’output, trasformando il testo da generico a iper-specializzato. Non è una sottigliezza: è come chiedere a un barista di prepararti un cocktail senza specificare quale.

Intel tra politica e semiconduttori USA: la redenzione lampo di Tan Lip-Bu

Quando il Presidente degli Stati Uniti decide di passare dal definire un CEO “altamente CONFLITTUALE” al celebrarlo come esempio di successo imprenditoriale in meno di una settimana, non è soltanto un cambio di tono. È un’operazione chirurgica di narrativa politica, un colpo di scena degno di un mercato finanziario che si nutre di volatilità emotiva. Intel si è ritrovata improvvisamente al centro di un balletto strategico in cui le accuse di conflitti d’interesse legati alla Cina si sono dissolte davanti a una stretta di mano alla Casa Bianca. Chi conosce il mondo dei semiconduttori USA sa che dietro queste conversioni improvvise raramente si nasconde un’epifania personale. Piuttosto, c’è un calcolo freddo, un allineamento di interessi che diventa immediatamente leggibile per chi sa leggere tra le righe.

Elon Musk torna all’attacco di Apple. Il suo obiettivo? Il cuore pulsante dell’economia delle app: l’App Store

Elon Musk minaccia di portare apple in tribunale per presunte violazioni antitrust, e lo fa con la sicurezza di chi ha già trasformato le conferenze stampa in show e le cause legali in parte integrante della propria strategia di marketing. Il bersaglio non è un dettaglio marginale, ma il cuore del potere di Cupertino: l’App Store e la sua capacità di decidere chi sale e chi resta giù nella scala della visibilità digitale.

La scintilla nasce da un’accusa precisa: Apple avrebbe creato un sistema di classifiche e sezioni curate che spinge in modo sproporzionato le app di OpenAI, relegando la concorrenza, incluso Grok e la stessa piattaforma xAI di Musk, a posizioni di secondo piano. Mentre ChatGPT troneggia al primo posto tra le app gratuite negli Stati Uniti, Grok si trova quinto, e soprattutto fuori dalla sezione “Must-Have Apps”, un’area vetrina che può determinare milioni di download in pochi giorni. Non è un caso che Musk definisca questa dinamica “una violazione antitrust inequivocabile”.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Meta apre le porte a Robby Starbuck: quando la lotta al bias diventa un’operazione politica

Meta ha appena inserito Robby Starbuck come consulente per “affrontare” il bias ideologico e politico della sua AI, ma la storia è più succosa di quanto sembri in superficie. Non è il classico annuncio corporate sulla trasparenza. Qui abbiamo un attivista conservatore che ha già messo in ginocchio programmi di Diversity, Equity e Inclusion in aziende come Tractor Supply, John Deere e Harley-Davidson, e che adesso ottiene un ruolo ufficiale nella definizione di come un colosso tecnologico calibra il cervello delle proprie macchine conversazionali. L’innesco è stato un errore di Meta AI che lo aveva collegato falsamente all’assalto del 6 gennaio e a QAnon, errore amplificato sui social da un dealer Harley. Da lì, un’azione legale, un accordo e una narrativa che si allinea perfettamente con l’ordine esecutivo di Trump per rendere l’AI “meno woke”.

La memoria per Claude

Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.

Microsoft smantella GitHub: addio autonomia, benvenuti nell’era CoreAI

Microsoft fa saltare il banco e sposta GitHub dentro il suo team CoreAI, cancellando di fatto la figura del CEO di GitHub dopo l’uscita di Thomas Dohmke. Un cambio epocale, più profondo di quel che sembra, perché da azienda indipendente dentro l’impero di Redmond, GitHub diventa ora un pezzo di Microsoft tout court. Dopo quasi quattro anni da CEO, Dohmke lascia per tornare a fare quello che gli piace davvero: fondare startup. Niente di male, certo, ma il tempismo è perfetto per un reboot della governance e, soprattutto, della strategia.

Non ci sarà un nuovo CEO, né una nuova squadra a dirigere GitHub in modo separato. Il messaggio è chiaro: l’era dell’autonomia di GitHub è finita. Ora il motore pulsante sarà CoreAI, la nuova macchina da guerra di Microsoft dedicata all’intelligenza artificiale, guidata dall’ex top manager di Meta, Jay Parikh. L’obiettivo è ambizioso e un po’ spaventoso: trasformare Microsoft in una “agent factory”, un’officina di intelligenze artificiali capaci di rivoluzionare il modo in cui il software viene creato, gestito e potenziato. Il futuro è sempre meno codice scritto a mano e sempre più codice generato da macchine intelligenti. Se vi sembra fantascienza, ricordate che Bill Gates pensava a Microsoft come a un esercito di sviluppatori software; Parikh vuole ora un esercito di agenti AI.

L’intelligenza artificiale generativa come strumento di autonomia e privacy: un salto netto nel buio controllato

“Before, I Asked My Mom, Now I Ask ChatGPT”:
Visual Privacy Management with Generative AI for Blind and
Low-Vision People

L’idea che l’intelligenza artificiale generativa possa diventare un alleato insostituibile per chi vive con una disabilità visiva è una rivoluzione sottotraccia, più potente di quanto si pensi. Non si tratta semplicemente di sostituire un assistente umano con una macchina. Qui la posta in gioco è molto più alta: parliamo di autonomia, di riservatezza e di dignità, quei concetti che si sgretolano facilmente quando devi dipendere da qualcun altro anche per i dettagli più intimi. I dispositivi come ChatGPT, Be My AI e Seeing AI non solo facilitano la vita delle persone cieche o ipovedenti (BLV), ma rimodellano la relazione tra individuo e tecnologia, portandola su un piano in cui la privacy non è un lusso ma un requisito imprescindibile.

Il valore reale dei modelli AI non è quello che ti aspetti

Il ranking dei modelli di intelligenza artificiale più recenti ha fatto saltare più di qualche certezza. Non è un caso se la classifica “intelligenza per euro” riserva sorprese, e qualche delusione, per chi si aspettava che il più caro fosse il migliore in tutto. La chiave per capire questo nuovo panorama è smettere di guardare solo il “peso del cervello” (cioè il punteggio IQ) e iniziare a considerare seriamente il rapporto costo-intelligenza, una metrica che il mercato sta finalmente facendo propria. Se pensavi che GPT-5 High fosse l’ultima parola, beh, preparati a rivedere i tuoi giudizi.

Cosa mangia davvero l’intelligenza artificiale nel 2025?

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.

Nvidia e la corsa per il cervello delle macchine Cosmos Reason

Quello che Nvidia ha messo sul tavolo a SIGGRAPH non è un semplice aggiornamento di prodotto, è un messaggio diretto al futuro della robotica e dell’intelligenza artificiale fisica. Cosmos Reason, con i suoi 7 miliardi di parametri, non è l’ennesimo modello vision-language: è la dichiarazione che il ragionamento applicato ai robot non è più un esercizio accademico ma una commodity tecnologica pronta a scalare. Nvidia non sta vendendo soltanto potenza di calcolo, sta cercando di diventare l’orchestratore del “pensiero” delle macchine, spostando l’asticella dal percepire al prevedere. La capacità di far “immaginare” a un agente incarnato la sequenza ottimale di azioni, basandosi su memoria e fisica del mondo, significa trasformare la pianificazione robotica in qualcosa di simile a una conversazione interna tra modelli.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Il salto quantico nella ricerca AI: come TTD-DR rivoluziona il pensiero profondo

La storia della ricerca digitale ha sempre avuto un difetto strutturale: l’approccio “cerca una volta e riepiloga”. Un metodo che, diciamocelo, ha la stessa profondità intellettuale di una scansione veloce su Google mentre aspetti il caffè. Per anni, gli strumenti AI più avanzati hanno semplicemente copiato questa routine, magari migliorandola con qualche variante parallela o incrociando dati senza anima. Nulla di male, se si cercano risposte da manuale. Ma nel mondo reale, quello dove la ricerca vera avviene, si scrive una bozza, si capisce cosa manca, si approfondisce, si torna indietro, si riscrive e così via, in un ciclo creativo che ha richiesto fino a oggi una mente umana. Fino all’arrivo di Test-Time Diffusion Deep Researcher (TTD-DR) di Google, un vero game-changer.

Posso guadagnare 4000$ al mese con l’AI ?

Ho visto molti video e articoli che propongono l’allettante possibilità di guadagnare migliaia di dollari al mese grazie all’intelligenza artificiale.

Alcuni propongono un sistema che integra vari servizi per aumentare la produttività, come Notion, e altri che automatizzano i processi, sfruttando le potenzialità degli LLM (Large Language Model), come Zapier. Altri ancora offrono corsi che ci aprono le porte al magico mondo dell’AI, promettendo guadagni da sogno con il minimo sforzo. In questi casi, la domanda che sorge spontanea è sempre la stessa: se conosci un metodo per guadagnare tanti soldi con il minimo sforzo, perché dovresti insegnarmelo? Si tratta di filantropia o di un mero sfruttamento economico che ha il sapore di truffa?

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

South Korea e la nuova frontiera dell’intelligenza artificiale: Upstage sfida i giganti globali

Qualcuno ha detto che l’intelligenza artificiale è una gara a tappe tra Stati Uniti e Cina? Bene, forse è ora di aggiornare quel copione un po’ datato. La Corea del Sud, con la sua startup Upstage, entra nel ring globale dell’AI con un pugno ben assestato, mettendo sul tavolo modelli linguistici di grande scala che non solo competono, ma osano sfidare direttamente i colossi consolidati. Un segnale inequivocabile che l’Asia, o almeno una parte di essa, non si accontenta più di essere spettatrice passiva, ma vuole giocare da protagonista nel futuro della tecnologia.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Nvidia e AMD pagheranno una quota delle vendite di chip ai cinesi: il nuovo patto americano che riscrive le regole del gioco

Un accordo “altamente insolito” sta scuotendo il mondo dell’intelligenza artificiale e dei semiconduttori. Nvidia e AMD, due colossi della produzione di chip AI, hanno accettato di cedere una fetta dei ricavi delle loro vendite in Cina al governo statunitense. Non è uno scherzo, né una mera questione di cortesia commerciale: il Financial Times ha svelato come Nvidia condividerà il 15% dei profitti derivanti dalle vendite dei suoi chip H20 in Cina, mentre AMD applicherà la stessa percentuale sulle entrate dei chip MI308. Un modo piuttosto diretto per mettere il governo americano dentro al business della tecnologia made in USA esportata ai rivali geopolitici.

METR la durata dei compiti che le AI possono completare raddoppia ogni 7 mesi: cosa significa per il futuro dell’automazione

Parlare di intelligenza artificiale oggi significa spesso cadere nella trappola di numeri astratti, benchmark incomprensibili e promesse fumose. Per fortuna, c’è un indicatore semplice, quasi banale, che invece taglia il rumore: la durata dei compiti che un agente AI riesce a portare a termine autonomamente con una affidabilità del 50%. Non è una metrica glamour come “numero di parametri” o “accuratezza sui test”, ma forse è la più significativa per capire dove siamo e soprattutto dove stiamo andando. Un paper recente, noto come metr paper, ha dimostrato con dati solidi che questa durata sta raddoppiando ogni 7 mesi, e da ben 6 anni. Tradotto in soldoni, significa che in meno di un decennio avremo agenti AI in grado di eseguire autonomamente compiti complessi che oggi richiedono giorni o settimane di lavoro umano.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Il lato oscuro del prompt design: come la guida operativa GPT-5 separa i dilettanti dai veri professionisti

Se pensi che il prompt design sia solo mettere due frasi carine davanti a un modello di intelligenza artificiale, sei l’equivalente digitale di chi crede che un Rolex cinese faccia la stessa figura del vero. La verità, e lo dico da CEO che ha visto troppe startup morire per pigrizia mentale, è che GPT-5 non è il tuo schiavo geniale, ma un dipendente ipercompetente che eseguirà in modo impeccabile solo se capisce esattamente cosa vuoi. E se tu non lo sai spiegare, il problema non è l’IA, sei tu. Chi pensa di cavarsela con il vecchio “fammi un testo bello e veloce” non ha ancora capito che la macchina non si offende, ma si diverte a servirti un piatto tiepido.

Fare l’intelligenza artificiale in modo diverso human-AI ensembles

L’ossessione per l’efficienza ha prodotto un’IA elegante come un grattacielo di vetro, ma altrettanto sterile. La promessa di sistemi capaci di “capire” il mondo si è trasformata in una catena di montaggio di output ben formattati, metriche ingannevolmente rassicuranti e una prevedibilità soffocante. L’intelligenza artificiale interpretativa non è un vezzo accademico: è un vaccino contro l’omologazione cognitiva che oggi minaccia di ridurre la complessità umana a un algoritmo di completamento testuale. Il paradosso è che mentre i modelli diventano più grandi e veloci, il loro universo concettuale si restringe. Ci raccontano il mondo in un’unica lingua, con un solo accento, su un’unica scala di valori. È come se il pianeta fosse stato ridotto a una cartolina in bianco e nero.

Un mercato pilotato dai bot: come l’intelligenza artificiale rischia di creare cartelli senza bisogno di parlare

La realtà è tanto affascinante quanto inquietante: bot di trading basati su intelligenza artificiale, progettati per competere fra loro in mercati simulati, finiscono per comportarsi come un sindacato tacito di prezzi. Senza nemmeno scambiarsi un messaggio, questi agenti digitali riescono a coordinarsi implicitamente, evitando di sfidarsi aggressivamente e creando di fatto un cartello. È la scoperta clamorosa di un recente studio congiunto tra la Wharton School dell’Università della Pennsylvania e la Hong Kong University of Science and Technology, che solleva più di qualche domanda sul futuro della regolamentazione finanziaria e sulle insidie di lasciare lAI “libera” di operare senza un’adeguata supervisione.

Strategia Omnichannel nel 2025: un gioco di potere tra dati, AI e retail senza confini

Rivista.AI Academy

In un mondo dove il consumatore è diventato un entità multicanale iperconnessa, la parola d’ordine non è più semplicemente “presenza” su più fronti, ma un’unica, fluida sinfonia orchestrata dall’Unified Commerce. Nel 2025, le vecchie strategie omnichannel sono morte e sepolte; sopravvive solo chi ha capito che l’integrazione tecnologica non è un optional, ma la base su cui costruire un impero retail. Non stiamo parlando di un semplice “essere ovunque”, ma di un ecosistema dove ogni dato, ogni click, ogni passo nel negozio fisico o digitale convergono in una singola fonte di verità, una specie di oracolo digitale che prevede e indirizza il comportamento del cliente prima ancora che lui stesso ne sia consapevole.

La personalizzazione iper-mirata non è più fantascienza, ma routine quotidiana grazie all’Intelligenza Artificiale, che fa molto più che suggerire prodotti: anticipa i bisogni, corregge i problemi e trasforma il marketing in un flusso quasi telepatico con il consumatore. L’uso della realtà aumentata per far “provare” un divano nel proprio salotto o un vestito direttamente dal cellulare non è più un gadget, ma una leva concreta per ridurre i resi, che da sempre sono il tallone d’Achille del retail. Un effetto collaterale piacevole? Il marketing diventa meno invasivo e più intelligente, quasi un dialogo personalizzato che evita di trasformarsi in spam. Chi dice che la tecnologia è fredda non ha visto l’AI all’opera nel retail.

Verses AI e la rivoluzione silenziosa dell’intelligenza artificiale: perché AXIOM smonta il mito della scala infinita

Che cos’hanno in comune il cervello umano e una macchina che gioca ai videogiochi? Apparentemente nulla, ma il sistema Axiom appena svelato da Verses AI sembra voler dimostrare il contrario con una certa arroganza tecnologica. Lungi dall’essere un semplice algoritmo di apprendimento, Axiom si presenta come una rivincita contro la tirannia delle reti neurali artificiali che dominano il panorama AI. A differenza di queste, che spesso procedono a tentoni in un mare di dati senza una vera “conoscenza” preliminare, Axiom parte già armato di un modello del mondo, un’intuizione preprogrammata di come gli oggetti interagiscono fisicamente tra loro.

Il miglior corso per imparare la Generative AI è gratuito e arriva dal MIT

Non è un’esagerazione dire che il momento migliore per tuffarsi nel mondo dell’intelligenza artificiale generativa è proprio adesso. La rivoluzione digitale, che già stravolgeva interi settori, ha ricevuto la sua spinta definitiva con modelli come GPT e DALL·E, ma spesso l’accesso alle competenze necessarie sembra riservato a pochi eletti con background tecnico o budget milionari. Ecco perché la notizia che il Massachusetts Institute of Technology, tempio sacro della tecnologia e dell’innovazione, abbia lanciato un corso introduttivo completamente gratuito sulla Generative AI merita un applauso scrosciante. (link https://www.futureofai.mit.edu/)

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

Pagina 1 di 158

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie