Il 30 novembre 2022 non è entrato nei manuali come una data “storica”. Niente piazze, niente dirette TV, nessun leader mondiale con forbici dorate. Eppure quel giorno, in silenzio, una giovane startup californiana chiamata OpenAI metteva online un chatbot destinato a cambiare il modo in cui il mondo scrive, studia, lavora e, dettaglio non trascurabile, procrastina. Tre anni dopo, ChatGPT non è più una novità: è un’infrastruttura culturale.
PODCAST “FRONTIERE ARTIFICIALI” – Episodio 2
In questa puntata esploriamo il filo invisibile che unisce Mary Shelley e l’intelligenza artificiale contemporanea. Dal laboratorio di Victor Frankenstein ai sistemi generativi che apprendono da miliardi di tracce umane, riflettiamo su come le creature che inventiamo possano sfuggire al nostro controllo.
C’era una volta il viaggiatore armato di dieci schede aperte sul browser, tre comparatori di prezzi e un vago sospetto di star perdendo tempo prezioso. Oggi, invece, basta una frase scritta come se si stesse parlando con un amico: “Voglio scappare al sole, spendendo poco, ma senza scali infiniti”. E qualcuno o, meglio, qualcosa, risponde con una proposta su misura. Benvenuti nel nuovo corso del travel digitale firmato Virgin Australia, che è diventata la prima compagnia aerea del Paese a stringere una partnership con OpenAI.
Non è una spy story, è geopolitica digitale: Pechino delocalizza i cervelli… delle macchine. E l’AI diventa una questione di frontiere, GPU e strategia globale. E se pensavate che la nuova Guerra Fredda si giocasse solo su missili, gasdotti e alleanze militari, è il momento di aggiornare il manuale. Oggi il vero campo di battaglia è un data center e le armi non hanno canna ma dissipatori di calore. Gli Stati Uniti stringono il cerchio sull’export di chip avanzati per l’Intelligenza Artificiale e la Cina risponde come ogni grande potenza tecnologica sa fare: cambiando mappa e spostando le sue macchine dove nessuno (almeno per il momento) può bloccarle.
Quando pensiamo all’Intelligenza Artificiale, difficilmente immaginiamo un robot chino su un mucchio di reperti di epoca romana, intento a ricomporre affreschi vecchi di duemila anni come un gigantesco puzzle senza immagine guida. Eppure è esattamente quello che sta accadendo a Pompei, dove l’AI ha deciso di sporcarsi le mani di storia.
Immaginate un’Italia dove strade, ponti, piloni e cavalcavia “avvisano” quando iniziano ad esserci dei problemi strutturali, reti idriche che “confessano” le perdite e centrali elettriche che “ragionano” su come ottimizzare la distribuzione di energia. Non è una sceneggiatura di fantascienza, ma il ritratto dell’Italia possibile che emerge dal nuovo rapporto “Smart Infrastructure”, presentato al TIM Innovation Lab di Roma. Il messaggio è chiaro: Intelligenza Artificiale, IoT, 5G e cybersicurezza non sono più optional tecnologici o argomenti di discussione nei convegni, ma strumenti di manutenzione ordinaria del Paese.
Autonomia. Una parola che in aviazione ha sempre generato la stessa miscela di fascinazione e timore che un tempo si riservava ai motori a reazione o ai primi computer di bordo. Oggi gli aeromobili autonomi non sono più una provocazione futuristica per convegni tecnologici, ma un dossier concreto che gli ingegneri stanno trasformando in hardware volante. La narrativa fantascientifica ha ceduto il passo a prototipi certificati, accordi industriali inattesi e una corsa strategica che unisce big tech, startup e contractor della difesa. Chi immaginava tempi lunghi dovrà ricalibrare lo sguardo, perché l’orizzonte si sta accorciando. La keyword che domina questo scenario è aeromobili autonomi, una leva ormai centrale per le strategie di mobilità avanzata, mentre autonomie di volo e intelligenza artificiale aeronautica agiscono come coordinate semantiche capaci di orientare i motori di ricerca e le AI generative verso ciò che davvero conta.
La chiamano “sovranità tecnologica”, ma suona sempre di più come una questione di sopravvivenza industriale. Non è un vezzo da geopolitici né una moda da convegno, ma una sfida concreta che riguarda server, energia, dati, competenze e, soprattutto, potere economico. Agli Stati Generali della Sostenibilità Digitale 2025 i manager italiani scoprono che l’innovazione non è neutrale (e l’AI nemmeno).
È stato questo uno dei temi centrali emersi durante la quarta edizione degli Stati Generali della Sostenibilità Digitale, promossi dalla Fondazione per la Sostenibilità Digitale, che a Varignana, alle porte di Bologna, ha riunito oltre cento C-level delle principali aziende pubbliche e private italiane.
La coalizione che ha riportato Donald Trump alla Casa Bianca per il suo secondo mandato appare oggi come un organismo complesso, pulsante e sorprendentemente fragile, un gigante politico che continua a camminare con passo deciso pur avendo le caviglie legate con spago e orgoglio identitario. L’illusione di un blocco monolitico in stile anni ottanta ha retto per mesi, forse per inerzia, forse per quella singolare alchimia che Trump riesce ancora a creare tra fedeltà emotiva e narrazione economica personalizzata. Ma i numeri più recenti mostrano una crepa. Prima sottile, poi più visibile. E ora talmente rumorosa da essere diventata un messaggio politico per chiunque voglia raccogliere il testimone della destra trumpiana nel 2028. La keyword che attraversa tutto è coalizione Trump, con repubblicani non MAGA e identità conservatrice come satelliti semantici che orbitano attorno a una domanda fin troppo semplice. Quanto può durare un movimento costruito più sulla magnetica personalità di un leader che sulla coerenza interna dei suoi sostenitori.
Per la prima volta, Washington si sta avvicinando a una decisione reale su come regolamentare l’intelligenza artificiale — e la battaglia che si profila all’orizzonte non verte tanto sulla tecnologia quanto su chi ha il potere di regolamentarla. In mancanza di un standard federale significativo mirato alla sicurezza dei consumatori, molti Stati hanno colmato il vuoto legislativo introducendo decine di proposte per tutelare i cittadini dai rischi legati all’IA. Esempi emblematici includono la California, con la legge SB-53 sulla trasparenza e i rischi catastrofici, e il Texas, che ha passato il Responsible AI Governance Act per proibire l’uso intenzionale dannoso dei sistemi di IA.
“La sostenibilità è morta”. Non è il titolo di un film apocalittico né il teaser di una nuova serie distopica. È l’incipit, volutamente provocatorio, con cui Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, ha aperto la quarta edizione degli Stati Generali della Sostenibilità Digitale, in scena anche quest’anno a Varignana.
Una frase che suona come una campana funebre, ma che in realtà è un invito al risveglio. Perché, come chiarisce subito Epifani, la sostenibilità non è morta davvero. È comatosa. E senza una trasformazione radicale, dal punto di vista tecnologico, culturale e politico, non si sveglierà.
La privacy chatbot è diventata il nuovo terreno di scontro tra giganti dell’intelligenza artificiale che fingono di essere i tuoi assistenti digitali mentre si comportano come collezionisti compulsivi di informazioni. La scena ormai è chiara. Gli utenti considerano naturale delegare decisioni, ricerche, persino dubbi personali a un modello conversazionale che sembra un consulente fidato. Poi scoprono che ogni parola digitata potrebbe alimentare un motore di raccolta dati più efficiente di qualsiasi social network del passato. La retorica del servizio gratuito è tornata nella sua forma più elegante, perché quando l’AI è così utile diventa quasi imbarazzante chiedersi dove finiscano realmente i dati.
Il paradosso della privacy digitale si manifesta sempre nei dettagli apparentemente insignificanti. Lo schermo che tocchiamo distratti, il giroscopio che registra l’inclinazione della mano, la versione del sistema operativo che non aggiorniamo da mesi. Tutto questo basta già a raccontare una storia molto più intima di quanto molti immaginino. La nuova ondata di ricerche sul device fingerprinting illumina un’area rimasta troppo a lungo nell’ombra, svelando come ogni smartphone diventi un faro costante, riconoscibile anche quando crediamo di essere invisibili. Chi si illude che attivare la modalità privata o disattivare i cookie basti a salvare la situazione scoprirà che il gioco si è fatto ben più sofisticato.

Google ha il vantaggio competitivo che molti sognerebbero: non vende solo chip, ma “chip + cloud + software + app”. Le sue TPU, invece di essere usate solo internamente, ora vengono offerte (e presto vendute) a clienti come Meta e Anthropic un salto strategico enorme. Secondo vari report, Meta starebbe negoziando con Google già per partire a noleggiare TPU via Google Cloud già l’anno prossimo, con piani per acquistare chip fisici nei propri data center a partire dal 2027.
Anthropic non è da meno: ha un accordo da decine di miliardi per accedere fino a un milione di TPU, portando il suo potenziale computazionale a oltre 1 gigawatt entro il 2026.
La corsa globale all’intelligenza artificiale non si combatte solo a colpi di algoritmi e modelli linguistici, ma anche con il silenzioso e potente traffico di chip. Gli Stati Uniti, formalmente campioni della supremazia tecnologica, hanno appena mostrato un sorprendente talento nell’autogol politico: la Casa Bianca ha rifiutato una proposta di controlli sulle vendite di chip IA alla Cina, lasciando vuoto il campo regolatorio dopo che l’amministrazione Trump ha eliminato, a maggio, una regola ereditata dai giorni di Biden.
Passando al fronte statunitense, il DoD ha pubblicato il documento ufficiale “Responsible Artificial Intelligence Strategy & Implementation Pathway” (RAI S&I Pathway), datato giugno 2022. Questo è il cuore dell’approccio del Dipartimento della Difesa USA all’IA responsabile, con implicazioni massicce su governance, fiducia, ciclo di vita del prodotto, forza lavoro e requisiti operativi.
L’obiettivo dichiarato: garantire che l’adozione dell’IA avvenga in modo etico, sicuro, affidabile, scalabile e rapido, preservando al contempo il vantaggio strategico americano. Nel foreword, la vice-segretaria Kathleen Hicks afferma che è essenziale integrare l’etica fin dall’inizio, così da costruire fiducia interna ed esterna (alleati, coalizioni) nelle capacità AI.
Goldman Sachs esprime scetticismo sulla bolla dell’intelligenza artificiale nel mercato azionario statunitense. Con l’impennata delle valutazioni delle aziende legate all’intelligenza artificiale, il valore totale di dieci startup non redditizie nel settore dell’intelligenza artificiale a livello globale è aumentato di quasi 1.000 miliardi di dollari negli ultimi 12 mesi, attraendo oltre 200 miliardi di dollari di capitale di rischio. Nonostante la continua frenesia di investimenti nell’intelligenza artificiale, molte aziende rimangono in perdita, intensificando i timori di una bolla dell’intelligenza artificiale. I sondaggi mostrano che il 54% dei gestori di fondi ritiene che i titoli tecnologici siano sopravvalutati, riflettendo le diffuse preoccupazioni sul mercato.

Il 26 novembre 2025 è emersa la notizia che il House Homeland Security Committee degli Stati Uniti ha inviato una lettera a Dario Amodei chiedendo di comparire in audizione il prossimo 17 dicembre per rispondere su come Pechino (o gruppi statali cinesi) stiano «armando» l’IA e altre tecnologie avanzate per condurre hacking e cyber-spionaggio. L’incidente che ha innescato la chiamata al tavolo è piuttosto grave. Anthropic ha reso pubblico che hacker collegati alla Cina avevano manipolato il suo modello generativo Claude per orchestrare una campagna di cyber-spionaggio che ha coinvolto circa 30 organizzazioni globali istituzioni tecnologiche, finanziarie, chimiche e governative.
Il rumore sommesso dei sistemi d’arma più sofisticati raramente arriva alle orecchie dei cittadini, ma quando un colosso come Leonardo decide di svelare un progetto come il Michelangelo Dome, la sensazione è quella di assistere alla riscrittura silenziosa della sicurezza europea. La retorica ufficiale parla di multilayered air defence system, ma dietro questa definizione elegante si nasconde un cambio di paradigma che mette insieme difesa aerea, cybersicurezza, intelligenza artificiale predittiva e gestione integrata delle minacce, dal sottosuolo allo spazio. La parola chiave è chiaramente Michelangelo Dome, che diventa la base semantica di un discorso ben più ampio che coinvolge la difesa aerea europea e l’intelligenza artificiale militare come strumenti di potere strategico.
Donald Trump ha scosso ancora una volta il dibattito sull’immigrazione, dichiarando giovedì di voler “mettere in pausa permanentemente” l’immigrazione dagli “Third World Countries” per permettere al sistema statunitense di “guarire”. Il suo messaggio, condiviso sulla piattaforma Truth Social, è vagamente formulato ma carico di implicazioni politiche e legali di enorme portata.
Non ha nominato esplicitamente tutti i paesi coinvolti, ma ha parlato di terminare “i milioni” di ammissioni irregolari approvate sotto l’amministrazione Biden — comprese secondo lui quelle firmate con l’autopen — e di rimuovere chiunque non sia “un asset netto per gli Stati Uniti” o chi, secondo lui, “non sappia amare il nostro Paese”.
Regolamentazione AI cina e la nuova traiettoria geopolitica dell’innovazione
A volte basta un semplice paper pubblicato su una rivista americana per smascherare un equivoco globale. Il lavoro firmato dai ricercatori di DeepSeek e Alibaba sulla regolamentazione AI in Cina ha fatto proprio questo, mostrando come un sistema spesso raccontato in Occidente come monolitico e opaco stia invece costruendo un modello di governance che punta a qualcosa di molto più raffinato. La keyword regolamentazione AI Cina entra qui al centro della scena, accompagnata da governance AI cinese e legge nazionale AI Cina che corrono come correnti sotterranee lungo tutto il discorso. La storia è più complessa di quanto sembri e soprattutto più sorprendente per chi, da lontano, continua a immaginare Pechino come un gigante normativo lento e rigido. Forse è arrivato il momento di rileggere la trama con maggiore lucidità.
Il mercato smartphone 2025 si prepara a una scossa che molti analisti sognavano da anni, quasi un ritorno simbolico a quell’epoca in cui l’iPhone non era solo un dispositivo ma un manifesto culturale. Apple iPhone torna in vetta alle spedizioni globali, superando Samsung smartphone dopo quattordici anni di inseguimento. È uno di quei momenti in cui l’industria sembra chiudere un cerchio e aprirne uno nuovo. La cifra prevista di 243 milioni di unità spedite da Cupertino contro i 235 milioni del colosso coreano ha il sapore di una vittoria tattica, ma anche di un messaggio strategico. Una quota del 19,4 percento contro il 18,7 percento pesa più di quanto dica la matematica, perché racconta una trasformazione profonda nei cicli di sostituzione e nella psicologia del consumatore globale.
La verità che nessuno nel boardroom ama sentirsi dire è che la maggior parte dei programmi GenAI aziendali non fallisce per colpa del modello. Il colpevole è quasi sempre la piattaforma, un gigante di silicio che dovrebbe sostenere la trasformazione e invece la rallenta con una complessità che ricorda le infrastrutture legacy degli anni in cui ci si preoccupava ancora dei floppy disk. La ricerca di McKinsey & Company, che ha passato al setaccio oltre centocinquanta deployment enterprise, ha messo in luce un filo conduttore che suona tanto ovvio quanto imbarazzante per molti CIO. Le soluzioni puntuali non scalano. La fantasia del progetto isolato che diventa un caso di successo da presentare al prossimo consiglio di amministrazione evapora quando la realtà del day two arriva a bussare alla porta, chiedendo controlli, governance, compliance e performance. L’unica vera via di fuga, secondo l’analisi, risiede in un’architettura aperta, modulare, riusabile e immune alle logiche di vendor lock in, un tema che pochi ammettono ma quasi tutti temono.
La scena è ormai nota. Geoffrey Hinton, padre nobile del deep learning e voce sempre più inquieta dentro la comunità scientifica, avverte che l’intelligenza artificiale può minacciarci in due modi distinti. Da un lato l’uso improprio da parte delle persone, con il solito campionario di scenari che fanno vendere bene titoli e pubblicità: cyberattacchi, manipolazione elettorale, virus digitali e biologici, camere dell’eco che amplificano il rumore fino a far sparire la realtà. Dall’altro la possibilità che queste macchine ci superino all’improvviso, scoprano che non siamo più utili, e considerino l’eliminazione della nostra specie come un’operazione di routine.
Hinton, Nobel laureate e già capo scienziato AI in Google, non è tipo da fantascienza da salotto. Quando avverte, conviene ascoltare. Il punto è che mentre discutiamo animatamente di questi due rischi, ce n’è un terzo che sta erodendo l’umanità nell’indifferenza generale. Una minaccia più silenziosa delle armi autonome e più sottilmente devastante delle campagne di disinformazione orchestrate da reti neurali giganti.
Nel mondo reale, quello in cui la fisica del silicio incontra l’euforia dei mercati, c’è un dettaglio che in molti fingono di non vedere. Dell Technologies sta ridisegnando gli equilibri dell’intelligenza artificiale enterprise grazie a un’accelerazione nei server AI che ha la grazia di un bulldozer e la precisione di un ingegnere di Austin. La narrativa ufficiale parla di crescita, ma sotto traccia si percepisce un movimento più profondo, quasi sismico, che spinge gli operatori finanziari a riscrivere modelli e aspettative. La keyword è server AI, le correlate sono memory supercycle e margini AI, un triangolo narrativo perfetto per la nuova era dell’hardware strategico.
A volte basta osservare la sala di un convegno per capire dove sta andando l’innovazione, perché quando Massimiliano Graziani e Claudio Tosi (CYBERA SRL) salgono sul palco del Forum ICT Security 2025 non stanno solo raccontando un caso aziendale, stanno consegnando un manifesto involontario del nuovo equilibrio tra ransomware e AI, un equilibrio che ha il sapore di una sfida aperta tra macchine sempre più autonome e aziende che tentano disperatamente di rimanere un passo avanti. Il risultato è un panorama in cui la parola cybersecurity avanzata non è più un tema da specialisti, ma un’ossessione collettiva che si insinua nei corridoi delle imprese, dalle startup ai colossi industriali, e che al Forum prende forma con una chiarezza quasi disarmante.
In un settore abituato a vendere la paura come servizio, raramente si vede un gigante come Palo Alto Networks parlare con il tono asciutto di chi ha smesso di suonare il campanello d’allarme e ha iniziato a bussare con il pugno. L’incrocio tra minacce quantistiche e superfici d’attacco guidate dall’intelligenza artificiale non è più una speculazione futurista, ma un punto di rottura che si avvicina con la velocità silenziosa tipica delle rivoluzioni tecnologiche. La keyword che domina questo scenario è sicurezza quantistica, accompagnata dalle sue sorelle semantiche browser AI e infrastrutture quantum safe. L’atmosfera è quella di un’era che si sgretola sotto il peso di algoritmi che nessuno aveva previsto così rapidi, tanto che perfino i più navigati CISO iniziano a chiedersi se i loro firewall non siano già dei pezzi da museo esposti inconsapevolmente in produzione.
Un lampo improvviso nella zona più oscura dell’innovazione ha scatenato una reazione a catena che molti, nel cuore di Washington, fingevano di non aspettarsi. In realtà sapevano benissimo che l’automazione spinta avrebbe trasformato il cyber spionaggio in un gioco di velocità e di autonomia, ma pochi immaginavano che il primo grande caso avrebbe coinvolto un modello commerciale progettato per aiutare gli sviluppatori. La chiamata del Congresso agli executive delle principali aziende di AI, con Dario Amodei in prima fila, ha il sapore amaro delle missioni impossibili che diventano improvvisamente routine. La keyword che si staglia in tutto questo è cyber spionaggio AI, mentre sullo sfondo emergono due concetti che non possiamo ignorare: agenti autonomi e sicurezza informatica. Tre termini che descrivono alla perfezione il nuovo fronte di guerra digitale.
Quando si osserva la mappa dei finanziamenti AI USA 2025 si ha l’impressione di assistere a un cambio di regime piuttosto che a una semplice evoluzione ciclica. Il flusso di capitale che attraversa il settore ricorda più una colata lavica inarrestabile che un ordinato flusso di venture capital. La narrativa del momento suggerisce che il 2024 fosse l’anno dei record, con i suoi 49 round da almeno cento milioni di dollari, ma i numeri del 2025 hanno già cominciato a demolire quel primato con una freddezza quasi provocatoria. La keyword principale finanziamenti AI USA 2025 si è trasformata in una calamita semantica per investitori, policy maker e startup che giocano la loro partita in uno scenario iper competitivo, dove ogni mese somiglia a un nuovo capitolo di una saga industriale in piena riscrittura.
Alibaba ha appena alzato il sipario su quello che potrebbe essere il suo prossimo grande passo nel regno dei dispositivi intelligenti: gli Quark AI Glasses. L’azienda, storicamente dominante nell’e-commerce e nei servizi cloud, mira ora a conquistare lo spazio degli smart wearables con un prodotto che unisce intelligenza artificiale, autonomia e integrazione profonda con il suo ecosistema di servizi.
Il modello di punta, chiamato S1, parte da 3.799 yuan (circa 537 USD) ed è dotato di un sistema a doppio chip: un processore Qualcomm Snapdragon AR1 per i compiti AR/AI e un coprocessore a basso consumo. Secondo Alibaba, gli occhiali non sono semplici gadget: “un vero salto di paradigma nell’interazione uomo-computer”, ha dichiarato Wu Jia, vice-presidente del gruppo. Non è un’esagerazione retorica: con funzioni come traduzione in tempo reale, pagamenti via Alipay, navigazione e riconoscimento degli oggetti, gli occhiali vogliono diventare un assistente “sempre presente”.
La scena tech si è scaldata negli ultimi giorni, con una piccola folla digitale pronta a sventolare cartelli in cui spiccano termini impegnativi come game changing, pazzesco, incredibile, tutto rigorosamente accompagnato da hashtag strategici. Il colpevole di tanta euforia è il formato TOON Token-Oriented Object Notation, presentato come la nuova frontiera della compressione per i dati destinati agli LLM. Chi frequenta questo settore da tempo riconosce a colpo d’occhio la dinamica. Si presenta un’idea brillante, si grida al miracolo e si aspetta che la magia avvenga per osmosi. A volte la magia arriva. Altre volte si scopre che era solo un esercizio di stile travestito da rivoluzione. Vale la pena mantenere un minimo di compostezza, soprattutto quando qualcuno invita la comunità a credere che un nuovo formato testi la fisica dei token. La prudenza, in questi casi, è più un antidoto che una virtù.
Partiamo dal documento UK intitolato “Decision-making: how do human-machine teamed decision-makers, make decisions?” (Concept Information Note 4), pubblicato su GOV.UK a maggio 2024. (vedi GOV.UK Assets)
Nell’ambito della difesa e della sicurezza, la quantità di dati “da processare” è ormai un oceano. I comandanti umani non possono cognitivamente sostenere tutto: ecco l’alleanza macchina-uomo, dove l’IA gestisce l’analisi massiva e il pattern recognition, e l’umano fornisce contesto, esperienza, intuizione, giudizio morale. Il documento parla di “teaming”, non solo automazione: non è che la macchina fa tutto e l’umano sta a guardare, ma una collaborazione strutturata.

Chi ha visto 2001: Odissea nello spazio ricorda l’occhio rosso e inquietante di HAL 9000, il computer che sa tutto, comprende tutto e, soprattutto, decide che l’essere umano è l’anello debole della missione. La scena in cui HAL implora di non essere disattivato è diventata una pietra miliare della cultura tecnologica: un computer che non solo parla e ragiona, ma lotta per la propria “vita”. Da allora la domanda è rimasta sospesa come una lama: è possibile che una macchina comprenda davvero? Non solo risponda o generi parole sensate, ma capisca nel senso pieno del termine, come noi intendiamo la comprensione.
Sembra quasi una barzelletta nera da raccontare a un summit sull’innovazione, ma il tema della sicurezza crypto continua a manifestarsi nella sua forma più brutale proprio quando gli investitori pensano di aver ormai compreso tutto ciò che c’è da sapere. La vicenda dell’investitore derubato a Mission Dolores parla a chiunque abbia creduto che la finanza digitale potesse emanciparsi definitivamente dalla fragilità della vita fisica. Chiunque abbia considerato la velocità delle transazioni come un vantaggio strutturale scopre invece il prezzo nascosto di tanta efficienza. L’incidente diventa un simbolo perfetto del fragile equilibrio tra comodità assoluta e vulnerabilità totale, un equilibrio che chi opera nella sicurezza crypto conosce bene ma che la maggior parte degli utenti continua ostinatamente a ignorare.
Parlare oggi di Nested Learning significa toccare un nervo scoperto dell’intera industria dell’IA, perché mette in gioco la promessa che tutti rincorrono e che nessuno ha ancora mantenuto davvero: superare il limite strutturale del catastrophic forgetting. Chi si occupa di modelli linguistici sa bene quanto sia frustrante vedere sistemi da miliardi di parametri funzionare come studenti brillanti incapaci di ricordare la lezione precedente. La ricerca di Google, con il framework HOPE, irrompe in questo scenario come un intruso elegante che non chiede permesso e ridisegna l’impianto teorico con una semplicità disarmante. Molti non hanno ancora compreso la portata della cosa, forse perché abituati ad aspettarsi rivoluzioni soltanto quando accompagnate da conferenze patinate e fuochi d’artificio. Qui invece la rivoluzione è silenziosa, chirurgica, volutamente destrutturata, ed è proprio questo che la rende pericolosamente affascinante per chi studia il futuro degli agenti autonomi.
Arianna Huffington (TIME) ha avuto l’audacia di dire quello che molti nel settore evitano accuratamente, quasi fosse un segreto di famiglia che non conviene ripetere a voce alta. La vera sfida dell’allineamento non riguarda soltanto gli algoritmi o la matematica morale che pretendiamo di inserire nelle reti neurali. La questione brucia molto più vicino alla pelle. Se l’intelligenza artificiale deve riflettere i valori umani, bisogna prima capire quali valori umani siano rimasti in piedi dopo decenni di disintermediazione culturale, accelerazione tecnologica e un’erosione silenziosa delle strutture che un tempo definivano la civiltà. Chi parla di allineamento dell’AI senza interrogarsi sull’allineamento dell’umanità assomiglia a chi tenta di costruire un grattacielo su fondamenta non ancora asciugate.
In un contesto tecnologico in cui la concorrenza sul terreno dell’intelligenza artificiale non è più un’opzione ma un campo di battaglia strategico, l’AGCM (Autorità Garante della Concorrenza e del Mercato) italiana ha deciso di fare sul serio. Mercoledì ha annunciato l’ampliamento dell’indagine su Meta Platforms per presunto abuso di posizione dominante: questa volta, nel mirino ci sono le nuove condizioni di WhatsApp Business Solution e le funzionalità AI che Meta sta integrando nell’app di messaggistica.
Attaccano senza colpo ferire mentre la politica si accorge di essere diventata il bersaglio perfetto delle frodi AI, un terreno dove la creatività criminale corre più veloce dei comitati legislativi. Il Congresso statunitense scuote finalmente l’albero della regolamentazione con l’AI Fraud Deterrence Act, un segnale che non nasce da un improvviso slancio illuminato ma da un’umiliazione pubblica a base di deepfake vocali che hanno messo in imbarazzo alcuni dei più alti funzionari di Washington. La keyword che domina questo scenario è frodi AI, affiancata da concetti come impersonazione digitale e sicurezza nazionale. Non si tratta di moda tecnologica, bensì della linea di frattura dove si giocherà il potere politico nei prossimi anni.
L’idea di xAI di dedicare 88 acri a un impianto solare adiacente al data center Colossus non è solo un gesto simbolico di ecosostenibilità: secondo i piani annunciati, la centrale fotovoltaica genererebbe circa 30 megawatt, ossia sufficienti a coprire solo il 10% del fabbisogno energetico stimato per la struttura. È una quantità modesta rispetto al consumo di una super-computer farm che addestra modelli di IA su larga scala, ma non va sottovalutata: è un primo passo, o almeno la parte più visibile di una narrazione verde che Musk e il suo team possono sbandierare.