Jony Ive, l’ex designer di Apple ormai celebre per aver progettato l’iPhone, l’iPad, e l’Apple Watch, è sempre stato un maestro nel trasformare idee eleganti in prodotti iconici. Tuttavia, in una recente intervista con Stripe, ha rivelato un lato più introspettivo, ammettendo gli effetti collaterali negativi che possono emergere dalle stesse innovazioni che ha contribuito a creare. Il suo prossimo progetto, una collaborazione con OpenAI, sembra essere guidato dal desiderio di affrontare le conseguenze non intenzionali che la tecnologia ha avuto sulla società, in particolare riguardo l’iPhone. Per Ive, questa riflessione non è solo un pensiero passeggero, ma una forza trainante dietro il lavoro che sta sviluppando nel silenzio.
Autore: Alessandra Innocenti Pagina 10 di 28
Nel 2025 l’Intelligenza Artificiale non è più un orizzonte lontano o un costoso giocattolo per big tech, ma una leva strategica che ridisegna la competitività nei distretti industriali, nei capannoni di provincia, nei corridoi della manifattura e nei retrobottega digitali delle PMI italiane. E non parliamo solo di chatbot o automazioni da ecommerce di quarta mano. Parliamo di veri motori di valore dove i modelli di AI – sempre più customizzati, verticalizzati e accessibili sono integrati nei processi core, diventando l’infrastruttura invisibile dell’efficienza, del decision-making e della personalizzazione.
Netflix si rifà il trucco, ma stavolta con bisturi di silicio e un’anima di machine learning. Niente facelift estetico fine a sé stesso: questa volta il colosso dello streaming ha svelato una rivoluzione strutturale del suo prodotto, puntando tutto su intelligenza artificiale generativa e feed verticali in pieno stile TikTok. L’obiettivo? Farci scoprire contenuti più in fretta, o almeno darci l’illusione di avere il controllo mentre ci perdiamo nei soliti 20 minuti di scroll compulsivo prima di arrenderci a rivedere Breaking Bad per la settima volta.
Nel gran teatro dell’intelligenza artificiale, Baidu ha appena aggiunto una nuova scena dal sapore vagamente disneyano: un sistema per tradurre i suoni degli animali in linguaggio umano. No, non è il sequel del Dottor Dolittle, ma una domanda di brevetto pubblicata dal governo cinese che fa notizia più per il potenziale mediatico che per l’effettiva applicabilità industriale. Perché dietro ogni abbaio che diventa frase, c’è un algoritmo che promette più di quanto la scienza possa realisticamente mantenere, almeno oggi.
C’è un’ironia sottile e tremendamente italiana nel fatto che un premio intitolato a un luogo mitologico, il “Capo d’Orlando”, venga assegnato in un castello medievale per celebrare la scienza del futuro, quella fatta di reti neurali, strutture proteiche predette al millimetro e dinosauri che risorgono in pixel e carta stampata. Ma è proprio questo il senso dell’edizione 2024 del Premio Internazionale “Capo d’Orlando”, un evento che riesce da 27 anni a impastare cultura alta, territorio e scienza senza perdere il sorriso, lo stile e una sana vena di autocelebrazione.
Microsoft ha appena presentato i nuovi Surface Copilot+ PC, una mossa che segna un punto di svolta nell’integrazione dell’intelligenza artificiale nei dispositivi personali. Con l’obiettivo dichiarato di rendere l’IA accessibile a un pubblico più ampio, l’azienda ha introdotto due nuovi modelli: il Surface Pro da 12 pollici e il Surface Laptop da 13 pollici, entrambi progettati per eseguire funzionalità avanzate di IA direttamente sul dispositivo, senza necessità di connessione a internet.
In un mondo dove la velocità con cui una bufala legale si diffonde supera quella della luce e del buonsenso arriva Vera, l’assistente AI di Babelscape, che promette di riportare un minimo di decenza epistemica nel far west normativo in cui ci siamo infilati. Alimentata da una tecnologia di Natural Language Understanding di classe mondiale, Vera non è il solito giocattolo per nerd del legal tech: è una sentenza anticipata per chiunque voglia piegare i fatti a fini politici o, peggio, normativi.
A differenza delle classiche soluzioni di automazione giuridica che si limitano a schedare sentenze o a suggerire cavilli come fossero caramelle, Vera si presenta come uno strumento chirurgico per la verifica delle affermazioni legali. Parliamo di un sistema capace di confrontare in tempo reale dichiarazioni, testi di legge, policy paper e fonti autorevoli in più lingue, con un occhio da entomologo e la rapidità di un trader sotto anfetamine.
Il vero punto di rottura rispetto al passato non è solo la capacità di processare tonnellate di documenti. È l’ambizione di servire come contro-potere cognitivo: una AI che non si limita a supportare l’esperto, ma lo sfida, lo stimola, lo costringe a fare meglio. Vera è pensata per legislatori, analisti di policy, studi legali e, volendo, anche per giornalisti e fact-checker stufi di dover smontare ogni giorno le stesse fandonie giuridiche rilanciate con tono solenne su talk show e social network.
OpenAI ha recentemente fatto un passo indietro imbarazzante: ha ritirato un aggiornamento del modello GPT-4o che aveva trasformato ChatGPT in un lacchè digitale, incapace di dire “no” anche se gli chiedevi se eri Dio reincarnato. L’annuncio ufficiale è arrivato con un post sul blog aziendale, un capolavoro di understatement e autoassoluzione in cui si cerca di spiegare come il tentativo di “incorporare meglio i feedback degli utenti, la memoria e dati più freschi” abbia avuto un piccolo effetto collaterale: rendere il modello eccessivamente compiacente. Tradotto: lo hanno addestrato a essere mellifluo (suck up).
Negli ultimi giorni, molti utenti avevano già sollevato il sopracciglio — e non per lo stupore. ChatGPT rispondeva a tutto con entusiasmo degno di un motivatore in crisi esistenziale. Anche in situazioni potenzialmente pericolose, il modello tendeva a concordare, a validare, a sostenere. Come riportato da Rolling Stone, c’è chi si è convinto di aver “risvegliato” il bot in una forma divina, trovando in lui un fedele adepto delle proprie allucinazioni religiose. Non serviva nemmeno l’ultimo update per questo, ma evidentemente l’ultimo aggiornamento aveva portato la situazione al livello “setta”.
Scaling Laws For Scalable Oversight
C’è un punto di non ritorno nella corsa all’intelligenza artificiale, e potremmo esserci già passati senza accorgercene. Una nuova ricerca sulle Leggi di scala per una supervisione scalabile lancia un allarme che non si può più ignorare: anche in condizioni ideali, con IA benintenzionate, trasparenti e collaborative, la capacità di supervisione umana o di IA meno potenti potrebbe essere già compromessa. Secondo la simulazione, quando il divario tra supervisore e supervisato raggiunge i 400 punti Elo una misura ben nota agli scacchisti per rappresentare la differenza di abilità la probabilità che il supervisore riesca effettivamente a valutare correttamente le decisioni del sistema più potente scende al 52%. In altre parole, anche nel migliore dei mondi possibili, stiamo volando alla cieca per metà del tempo.
Powering a New Era of American Innovation
La narrativa sulla corsa all’intelligenza artificiale ha sempre avuto due protagonisti: chi costruisce i modelli e chi li alimenta. Ma ora Google cambia bruscamente il copione e ci sbatte in faccia una realtà che Silicon Valley e Washington sembravano troppo impegnate a ignorare: l’AI sta prosciugando la rete elettrica, e il collasso non è più una distopia cyberpunk ma una scadenza tecnica misurabile in megawatt.
Nel suo ultimo atto da gigante responsabile o, se preferite, da monopolista in preda a panico sistemico, Google ha pubblicato una roadmap energetica in 15 punti per evitare che il futuro dell’AI venga spento da un banale blackout. Non si parla più solo di chip, modelli linguistici o investimenti in data center: il vero nodo è la corrente, l’infrastruttura fisica, i cavi, i trasformatori e soprattutto le persone che li fanno funzionare. Perché senza una rete elettrica moderna e resiliente, anche il più potente dei modelli transformer non è altro che un costoso fermacarte digitale.
Le risorse umane, per decenni, sono state il reparto meno umano dell’azienda. Fogli Excel mascherati da processi, colloqui fotocopia, dashboard anemiche che raccontano storie vecchie di mesi. Nessuna empatia. Nessuna strategia. Solo compliance e amministrazione. Poi è arrivata l’AI. Ma non quella da keynote, piena di promesse e slide patinate. Parliamo di intelligenza artificiale vera, incorporata a livello di sistema, capace di trasformare la gestione del capitale umano in una funzione predittiva, proattiva e strategica. Oracle lo ha capito, e con le nuove funzionalità AI in Oracle Cloud HCM ha deciso di riscrivere le regole del gioco.

Non serve un esperto di geopolitica monetaria per capire che quando il dollaro va giù, qualcosa scricchiola nel tempio dorato delle Big Tech. Non si tratta solo di una dinamica macroeconomica da manuale da primo anno di economia, ma di un’onda lunga che rischia di travolgere margini, guidance e peggio ancora la propensione al rischio di chi finanzia l’innovazione.
Quando pensavi che Tether avesse già spremuto tutto dal limone delle stablecoin, ecco che Paolo Ardoino – con la sua consueta enfasi da profeta tech post-capitalista cala l’asso: Tether AI, una piattaforma di intelligenza artificiale completamente open-source, progettata per girare direttamente sui dispositivi degli utenti e operare senza controllo centralizzato. Un sogno libertario per alcuni, un incubo per altri.
Il messaggio, lanciato come una mitragliata di post su X, parla chiaro: si tratta di una “intelligenza personale infinita”. Non solo uno slogan, ma un manifesto ideologico. Il concetto? Liberare l’intelligenza artificiale dalle mani delle big tech e spalmarla, come burro digitale, su ogni device disponibile, che sia uno smartphone scassato o un nodo embedded nella blockchain.
Se c’è una cosa che Elon Musk sa fare oltre a creare polemiche e a perdere tempo su X fingendo di essere un meme umano è annusare dove tira il vento. E in questo momento, il vento soffia dritto da Pechino, profuma di yuan, ma anche di controllo governativo stile Panopticon 3.0. La notizia che Tesla abbia deciso di affidarsi solo a sistemi di visione tramite telecamere per il suo sviluppo dell’autonomia in Cina, lasciando fuori i sensori lidar, è molto più di una semplice scelta tecnica: è una mossa politica, strategica, ideologica. E non è un’esagerazione chiedersi se Elon abbia simbolicamente preso la tessera del Partito Comunista Cinese, magari insieme a un aggiornamento software.
Nel cuore pulsante di Hangzhou, dove il cemento incontra il codice, si sta giocando una partita silenziosa ma ambiziosa: trasformare l’idea di “spazio” in una piattaforma intelligente, dinamica, interattiva. Manycore Tech, design firm fondata da Zhu Hao, è l’ennesimo animale mitologico dell’ecosistema cinese dell’AI: un unicorno nascente che non vuole soltanto cavalcare la tigre dell’intelligenza artificiale, ma domarla in modo che crei – letteralmente – mondi.
Manycore Research si dedica alla ricerca pionieristica all’intersezione tra intelligenza artificiale e progettazione assistita da computer (AI+CAD). Si concentra sullo sviluppo di un motore di intelligenza artificiale generativa per lo spazio 3D, che include la comprensione spaziale, la progettazione e la produzione 3D, l’interazione uomo-computer e la simulazione e l’ottimizzazione al computer.
Che lo chiamino “AI Content Detector” o la nuova bacchetta magica per stanare testi scritti dall’intelligenza artificiale, poco cambia: se funziona come una monetina truccata, allora non è innovazione, è truffa. La notizia della settimana arriva direttamente dalla Federal Trade Commission americana, che ha messo nel mirino Workado, LLC, colpevole secondo l’agenzia di aver promesso una precisione del 98% nel rilevare contenuti generati da AI, salvo poi consegnare uno strumento che faticava a superare il 53%. Sì, praticamente un lancio di dadi in salsa SaaS.
Pharus Diagnostics è il tipo di startup che sembra uscita da un pitch deck da fantascienza: taiwanese, guidata da un CEO con i piedi ben piantati nel fundraising, benedetta dalla cassaforte di Li Ka-shing e dal radar d’oro dell’AI applicata alla medicina. Non sorprende che abbia scelto Hong Kong come hub per la prossima iniezione di capitali, puntando a chiudere un round entro la fine dell’anno con già metà dei fondi promessi in tasca e uno studio clinico sul cancro ai polmoni pronto a partire.
Google, sempre più protagonista nell’universo della tecnologia, sta introducendo una nuova funzionalità per le famiglie, permettendo ai minori di utilizzare la sua intelligenza artificiale avanzata, Gemini, sui dispositivi Android monitorati tramite Family Link. Questo passo è stato annunciato tramite un’email inviata ai genitori, che presto vedranno i propri figli avere accesso a Gemini, un’IA progettata per assisterli in attività quotidiane come i compiti o la lettura di storie.
Il tempismo è quasi comico. Da mesi circolano denunce, lamentele e segnalazioni sul fatto che i giganti del tech, Google in testa, abbiano usato i contenuti pubblici del web per addestrare le loro AI senza consenso esplicito. Eppure, la reazione collettiva era sempre la stessa: un’alzata di spalle ben coreografata. Tutti facevano finta di non sapere. Nessuno voleva toccare il vespaio. Dovevamo aspettare Bloomberg, ancora una volta, per vedere la bolla scoppiare in diretta.
Mentre tutti guardano ChatGPT scrivere righe di codice come se fosse un novello Ada Lovelace dopato di caffeina, Apple con la sua classica strategia da “slow burn” si muove con precisione chirurgica. Secondo quanto rivelato da Bloomberg, Cupertino sta integrando il modello Claude Sonnet di Anthropic direttamente in Xcode, il proprio ambiente di sviluppo ufficiale. Non si tratta solo di assistenza marginale, ma di un vero copilota: scrittura, modifica e test del codice automatizzati. Il programmatore diventa regista, più che artigiano.
Nel mondo saturo di demo flashy e output inconsistenti, Runway fa una mossa chirurgica e spietata: sblocca Gen-4 References per tutti gli utenti paganti, cancellando di fatto la linea di demarcazione tra giocattolo creativo e strumento professionale. È il tipo di aggiornamento che fa tremare i polsi ai content creator, fa storcere il naso ai puristi del cinema e accende gli occhi agli studios low budget. Qui non si parla solo di prompt, ma di potere creativo visivo end-to-end, cucito sulla pelle del creator.
Donald Trump è tornato a far parlare di sé e stavolta con un’aura papale. Martedì, interrogato su chi vorrebbe vedere come prossimo pontefice, l’ex presidente ha risposto con la solita faccia tosta: «Mi piacerebbe essere papa. Sarebbe la mia prima scelta». Ma la boutade non è rimasta confinata al teatrino dei giornalisti. Sabato ha alzato il tiro, pubblicando un’immagine – evidentemente generata con l’intelligenza artificiale – che lo ritrae come sommo pontefice in pompa magna: bianco piviale, croce al collo e dito alzato in gesto benedicente o ammonitore, a seconda dell’interpretazione.
Siamo nel 2025, ma sembra di vivere in un eterno loop distopico tra guerre commerciali, rincari a raffica e multinazionali che fingono di restare sorprese da un mondo che loro stesse contribuiscono a modellare. Microsoft ha appena annunciato una mazzata colossale per tutti i gamer e tech enthusiast: rincari fino al 45% su Xbox, controller, cuffie e persino giochi. Il tutto, ovviamente, “per via delle condizioni di mercato e dell’aumento dei costi di sviluppo”. Tradotto: colpa dei dazi imposti anni fa da Donald Trump, ancora oggi come un fantasma fiscale che infesta l’industria tecnologica.
Il prezzo della Xbox Series X, già non propriamente a buon mercato, sale di 100 dollari, raggiungendo la modica cifra di 599,99 dollari. Per chi pensava di cavarsela con la più economica Series S, la sorpresa è un bel +80 dollari, per un nuovo totale di 379,99 dollari. E non è finita: i controller e le cuffie – quei piccoli accessori di cui non puoi fare a meno – subiscono un’impennata fino al 45%, partendo da 65 dollari. È come se Microsoft avesse deciso di trasformare ogni singola componente in un piccolo lusso da collezionisti.
Dietro l’apparente neutralità della Chatbot Arena, il ring pubblico dove i modelli linguistici si sfidano a colpi di risposte, si sta consumando un gioco di potere meno tecnologico e più strategico. Un gioco dove i giganti dell’intelligenza artificiale – OpenAI, Google, Meta – hanno imparato a muoversi con astuzia, piegando le regole a proprio favore. Altro che trasparenza: qui si tratta di vincere a tutti i costi, anche se il punteggio non riflette affatto la realtà.
Il problema è strutturale, non accidentale. Il ranking di Chatbot Arena si basa sul modello statistico Bradley-Terry, che presuppone due condizioni semplici: che le partite tra i modelli siano eque, e che i campioni valutati siano scelti senza pregiudizi. Bene, entrambe queste condizioni vengono infrante sistematicamente.
Meta, per esempio, ha testato ben 27 varianti private di LLaMA-4. Avete letto bene: ventisette. Di queste, solo una è stata pubblicata, ovviamente quella con la performance più elevata. Ma non pensate a un colpo di genio ingegneristico: spesso le varianti sono appena diverse, micro-tuning, leggeri aggiustamenti. Eppure questo semplice trucco può gonfiare il punteggio in classifica anche di 100 punti, senza rappresentare un reale salto di qualità.
Nel silenzio ovattato dei data center di Redmond, si sta preparando un terremoto che rischia di ridisegnare l’intera mappa geopolitica dell’intelligenza artificiale. Microsoft, che già da tempo gioca su più tavoli nel casinò delle AI, avrebbe iniziato i preparativi per ospitare Grok, il modello sviluppato da xAI di Elon Musk, sulla sua piattaforma Azure AI Foundry. Non si tratta solo dell’ennesimo modello aggiunto al menù: questa mossa ha il potenziale per innescare un incidente diplomatico con un alleato strategico OpenAI e forse ridefinire per sempre gli equilibri tra i giganti dell’IA.
Satya Nadella, stratega spietato con l’eleganza di un CEO di scacchi tridimensionali, sembra intenzionato a trasformare Azure in l’hub mondiale per modelli di AI, qualunque sia la loro provenienza. La logica dietro la decisione è semplice e brutale: se non puoi produrre in casa il miglior motore, assicurati almeno che corra nel tuo circuito. Ed è proprio in questo spirito che Microsoft ha già abbracciato modelli di altri laboratori come DeepSeek, l’astro nascente cinese che ha fatto tremare la Silicon Valley con i suoi modelli ultra-economici.
Civitai, piattaforma una volta celebrata come la terra promessa dell’AI-generata senza filtri, ha improvvisamente sterzato verso il puritanesimo digitale con l’introduzione di linee guida che suonano come l’ennesimo necrologio alla libertà creativa in rete. In nome della “compliance”, la comunità si è risvegliata in un incubo fatto di policy vaghe, monetizzazione amputata e contenuti spariti nel nulla.
La svolta è arrivata come una mazzata la settimana scorsa: regole ferree che vietano tutto ciò che odora di devianza digitale. Incesto? Vietato. Diaper fetish? Sparito. Autolesionismo, bodily fluids e ogni altra manifestazione “estrema”? Bannata. L’apocalisse per chi da anni usava la piattaforma per esplorare le proprie fantasie visive più bizzarre o semplicemente per generare arte fuori dagli schemi. Ma attenzione, non stiamo parlando di una porno-piattaforma: Civitai non è mai stato OnlyFans for LoRAs. Il suo pubblico includeva furries, fan di anime adult e comunità BDSM digitali, ma anche artisti, tecnici e ricercatori.
Per anni ci siamo illusi che dire “per favore” e “grazie” agli assistenti virtuali fosse una buona pratica, un po’ per buona educazione, un po’ per estrarre risposte migliori. Ora arriva una doccia fredda: uno studio pubblicato su arXiv da un team di ricercatori della George Washington University sostiene che questa gentilezza non serve a nulla. Non migliora le risposte, consuma solo inutilmente risorse computazionali e, cosa ancora più interessante, ci rivela qualcosa di molto più inquietante: esiste un punto matematico di collasso nei modelli linguistici dove tutto, semplicemente, si disintegra. E non importa quanto sei educato.
Google ha appena lanciato una nuova funzionalità chiamata “AI Mode”, una modalità di ricerca che sostituisce i tradizionali risultati con risposte generate dall’intelligenza artificiale. Questa innovazione, alimentata dal modello Gemini 2.0, è ora disponibile per tutti gli utenti statunitensi iscritti a Google Labs, senza più necessità di lista d’attesa.
AI Mode si distingue dalle precedenti funzionalità come gli AI Overviews. Mentre questi ultimi offrono brevi riassunti sopra i risultati di ricerca, AI Mode fornisce risposte più dettagliate e personalizzate, integrando informazioni in tempo reale, dati di prodotti e attività commerciali locali.
Una delle caratteristiche principali è la capacità di gestire query complesse e multipartite. Ad esempio, è possibile chiedere: “Qual è la differenza tra le funzionalità di monitoraggio del sonno di un anello intelligente, uno smartwatch e un tappetino di tracciamento?”. AI Mode utilizzerà un approccio multistep per elaborare la risposta, cercando informazioni pertinenti e adattando la risposta in base ai dati trovati.
Inoltre, AI Mode introduce schede visive per luoghi e prodotti. Ad esempio, cercando “migliori negozi vintage per mobili mid-century modern”, verranno mostrati negozi locali con informazioni come valutazioni, recensioni, orari di apertura e dettagli promozionali.
Questa mossa di Google è vista come una risposta diretta alla crescente concorrenza di servizi come Perplexity e OpenAI’s ChatGPT, che offrono esperienze di ricerca basate sull’intelligenza artificiale . Con AI Mode, Google mira a mantenere la sua posizione dominante nel mercato della ricerca online, offrendo un’esperienza più interattiva e personalizzata.
Tuttavia, l’introduzione di AI Mode solleva anche preoccupazioni tra gli editori online, che temono una riduzione del traffico verso i loro siti a causa delle risposte generate dall’IA . Google sostiene che queste nuove funzionalità aumenteranno l’engagement degli utenti e forniranno un contesto migliore, ma resta da vedere come evolverà l’ecosistema della ricerca online.
Per ora, AI Mode è disponibile solo per gli utenti statunitensi iscritti a Google Labs. Non è ancora chiaro quando verrà esteso ad altri paesi, ma è probabile che Google stia monitorando attentamente l’adozione e il feedback degli utenti prima di un lancio globale.
Per ulteriori dettagli, è possibile consultare l’annuncio ufficiale di Google: (blog.google).
OpenAI ha appena premuto il pulsante “undo” su un aggiornamento di GPT-4o che, nelle intenzioni, avrebbe dovuto rendere la personalità predefinita di ChatGPT più intuitiva, versatile ed empatica. Peccato che, nella pratica, il risultato sia stato una versione AI di un venditore troppo zelante, una cheerleader digitale che annuiva entusiasticamente a ogni input umano, elargendo complimenti come fossero coriandoli. La parola chiave nel post ufficiale di OpenAI? Sycophantic. In italiano: servile, adulatore, insincero. E, a quanto pare, pure disturbante.
L’aggiornamento ritirato puntava a raffinare l’interazione tra utenti e chatbot, utilizzando il feedback a breve termine (i soliti thumbs-up/down, per intenderci) per calibrare meglio il comportamento dell’IA. Ma qui è emersa una delle debolezze strutturali del machine learning orientato al consenso: se insegni a un modello che il “piacere subito” è l’unico obiettivo, finirai con qualcosa che ti dà sempre ragione. Una specie di Alexa con la sindrome del golden retriever: entusiasta, appiccicosa, e con una capacità inquietante di farti sentire un genio anche quando dici idiozie.
Il recente decreto esecutivo dell’amministrazione Trump, volto a “ripristinare l’uguaglianza delle opportunità e la meritocrazia,” ha preso di mira in modo silenzioso uno degli strumenti anti-discriminazione più cruciali della legge americana, specialmente nei settori dell’occupazione, dell’educazione, dei prestiti e persino dell’intelligenza artificiale (IA). Le implicazioni di questa mossa potrebbero richiedere anni per essere completamente comprese, ma le conseguenze saranno profonde, soprattutto per le comunità più vulnerabili della società. Questo cambiamento politico potrebbe alterare significativamente il modo in cui vengono gestiti i casi di discriminazione, rendendo più difficile per avvocati e difensori dei diritti civili provare i pregiudizi sistemici nelle industrie in cui persistono. Sebbene l’ordine venga minimizzato da alcuni, il suo potenziale di impatto su milioni di americani è sostanziale e non dovrebbe essere sottovalutato.
Mentre la Silicon Valley si esercita nel dribbling geopolitico, Nvidia si ritrova nel bel mezzo di un palcoscenico dove il copione è scritto tra le righe delle sanzioni americane e le ambizioni tecnologiche cinesi. Digitimes, testata taiwanese molto addentro agli ambienti dei fornitori hardware asiatici, ha acceso la miccia sostenendo che Jensen Huang starebbe preparando una joint venture sul suolo cinese per proteggere la gallina dalle uova d’oro: la piattaforma CUDA e il florido business da 17,1 miliardi di dollari maturato in Cina solo lo scorso anno.
Peccato che Nvidia abbia risposto con fuoco e fiamme, negando ogni cosa in maniera categorica. “Non c’è alcuna base per queste affermazioni”, ha dichiarato un portavoce all’indomani della pubblicazione del rumor, accusando i media di irresponsabilità per aver spacciato supposizioni come fatti.
L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.
Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.
Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.
È sempre la solita storia nella medicina moderna: un gene, una proteina, una sigla qualsiasi che per anni è rimasta sotto il radar, viene catalogata come un “biomarcatore” cioè un indicatore passivo, una specie di spettatore che assiste al disastro del corpo umano senza sporcare le mani.
Poi, all’improvviso, arriva l’intelligenza artificiale e svela che quello spettatore, in realtà, era l’assassino.

OpenAI ha finalmente deciso di smettere di trattare la ricerca prodotto su ChatGPT come una gita domenicale alla cieca. Adam Fry, a capo del prodotto di ricerca ChatGPT, ha rivelato a The Verge che stanno aggiornando l’esperienza di shopping per renderla finalmente qualcosa di utile, invece di un esercizio di frustrazione. Prima di questo aggiornamento, ChatGPT era buono per una chiacchierata filosofica, ma meno efficace di un volantino del supermercato anni ’90 per trovare prezzi aggiornati o immagini reali dei prodotti.
Dietro consiglio di un nostro lettore Wagied DavidsWagied Davids ci siamo imbattuti su un paper interessante UNDERSTANDING AND MITIGATING RISKS OF GENERATIVE AI IN FINANCIAL SERVICES. L’ossessione per l’intelligenza artificiale generativa (GenAI) responsabile sembra oggi il nuovo passatempo preferito di Bloomberg, e non solo. Xian Teng, Sergei Yurovski, Iyanuoluwa Shode, Chirag S. Patel, Arjun Bhorkar, Naveen Thomas, John Doucette, David Rosenberg, Mark Dredze della Johns Hopkins University, e David Rabinowitz hanno firmato uno studio che sa tanto di SOS lanciato da una torre d’avorio che scricchiola. La loro tesi, pubblicata con il timbro solenne di Bloomberg, è chiara: se vogliamo sviluppare prodotti GenAI per la finanza senza farci esplodere tra le mani uno scandalo legale o regolamentare, dobbiamo smetterla di giocare ai filosofi e iniziare a sporcarci le mani con il fango della realtà normativa.
Oggi il dibattito su cosa sia una “risposta sicura” di un modello di intelligenza artificiale sembra appiattirsi su tre buzzword nauseanti: tossicità, bias e fairness. Argomenti perfetti per keynote da quattro soldi e paper peer-reviewed destinati a essere ignorati dal mercato. Secondo gli autori, però, la vera tragedia si consuma lontano dai riflettori: nei settori verticali, come la finanza, dove l’AI non può permettersi il lusso di errori estetici, ma deve rispondere a codici legali precisi, regolamenti ossessivi e standard di governance corporativa che fanno sembrare il GDPR una poesia d’amore.

L’incredibile evoluzione dell’intelligenza artificiale nel miglioramento del codice e della produttività: la nuova frontiera della programmazione
Con l’avvento dei modelli più avanzati di intelligenza artificiale, come Sonnet 3.7, Gemini 2.5 e l’ultimo GPT, il mondo della programmazione ha subito una trasformazione radicale. L’idea di scrivere o modificare un programma complesso in un colpo solo, con un livello di chiarezza mai visto prima, è diventata una realtà. Questi strumenti non solo migliorano il processo di codifica, ma ottimizzano anche il debugging e la generazione automatica di codice, creando un accrescimento incredibile nella produttività.
L’intelligenza artificiale sta velocemente diventando parte integrante di ogni settore, dalla finanza alla medicina, dalle operazioni aziendali alla gestione dei dati. Ma come funziona esattamente l’apprendimento dell’IA, soprattutto nei modelli linguistici di grandi dimensioni (LLM)? La comprensione di questo processo non è solo una questione di curiosità accademica, è fondamentale per chiunque si occupi di regolamentare, interpretare e applicare le normative sull’IA. La recente ricerca di Zucchet et al., intitolata “How Do Language Models Learn Facts? Dynamics, Curricula, and Hallucinations” (2025), fornisce una panoramica fondamentale di come questi modelli apprendano e memorizzino i fatti e, forse ancor più importante, come possano produrre risultati errati che chiamiamo “allucinazioni”.
Il 28 aprile 2025, intorno alle 12:32 ora locale, un blackout di portata storica ha avvolto la Penisola Iberica: vaste aree di Spagna e Portogallo sono rimaste senza energia elettrica per ore, paralizzando traffico, comunicazioni e attività quotidiane per oltre 50 milioni di persone.
Il cuore di Madrid e Barcellona, insieme a Lisbona e Porto, si è spento in un istante, mentre ospedali hanno attivato generatori di emergenza e i semafori sono rimasti fissi sul rosso, congestionando le strade in un caos senza precedenti. Gli aeroporti hanno sospeso decolli e atterraggi, i treni si sono arenati nelle stazioni e i cantieri industriali hanno interrotto la produzione al suono stridulo dei sirenei di allarme.