C’è una cosa che Trump sa fare meglio di molti altri: trasformare l’indignazione morale in una clava politica. E il Take It Down Act, appena firmato con grande fanfara presidenziale, è l’ennesimo esempio. Una legge che, sulla carta, promette di proteggere le vittime di immagini intime non consensuali (NCII), comprese quelle generate da intelligenza artificiale, ma che in pratica apre le porte a una nuova stagione di censura discrezionale e abusi normativi. Il tutto condito dall’ormai familiare retorica trumpiana del “sono io la vera vittima di internet”.
Categoria: News Pagina 19 di 90
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

NotebookLM mobile: la voce dell’AI che ti racconta i tuoi appunti (e ti ascolta meglio di HR)
Google ha deciso di infilarsi anche nelle tue tasche, letteralmente. Dopo aver dato vita a NotebookLM come strumento AI “studioso” da scrivania, adesso lo piazza nel tuo Android e dal 20 maggio anche su iPhone e iPad con un’app che trasforma i tuoi documenti in voci sintetiche da podcast. Sì, hai letto bene: il tuo report trimestrale letto da un’intelligenza artificiale mentre sei in palestra. O mentre fingi interesse durante una riunione su Zoom.

La parola d’ordine è “agenti”. Non quelli dei servizi segreti, ma quelli software: entità autonome, autoeseguibili, perennemente sveglie e sempre pronte a servirti. Sì, stiamo parlando di AI agents, i nuovi protagonisti del futuro immaginato da Microsoft. Ma non basta dichiararlo: per trasformare questo delirio tecnocratico in infrastruttura concreta, serve un collante. Quel collante ha un nome: Model Context Protocol (MCP). Ed è qui che le cose si fanno davvero interessanti, e potenzialmente pericolose.
Quello che Microsoft ha annunciato al suo Build è una di quelle mosse che sembrano piccole, ma che in realtà stanno ridisegnando sottotraccia il paradigma del web moderno: l’introduzione di API cross-platform per l’AI on-device nel browser Edge, alimentate dal suo modello Phi-4-mini. Roba da far impallidire i paladini del cloud e far storcere il naso ai puristi del server-side. Sì, perché stiamo parlando di intelligenza artificiale che gira localmente, sul tuo portatile, mentre scrolli siti web e cerchi di sembrare produttivo.


Seattle, maggio 2025. L’aria è satura di entusiasmo artificiale, cariche elettriche da keynote e presentazioni PowerPoint sfornate come biscotti caldi dalla fabbrica del capitalismo tecnologico. Satya Nadella è appena salito sul palco del Build Developer Conference, sorriso da CEO seriale, giacca stirata, voce pacata. Ma appena il tempo di pronunciare qualche frase da manuale sul futuro brillante dell’AI, e una voce rompe l’incantesimo: “Free Palestine!”.La scena dura pochi istanti. Ma è sufficiente per incrinare il vetro levigato della narrazione aziendale. Il disturbatore non è un provocatore qualunque, ma Joe Lopez, ingegnere firmware con quattro anni di esperienza nei sistemi hardware Azure. Uno di casa. Uno che fino a ieri era “una risorsa”. Oggi, invece, è diventato un problema.

Nel 2025 Microsoft non costruisce più software. Costruisce fabbriche di agenti. Con la compostezza da CEO illuminato, Satya Nadella lo dice chiaramente dal palco di Build a Seattle: “Siamo nel mezzo della rivoluzione AI. Qui succedono le cose grosse. Si scala.” E mentre pronuncia la parola “scala”, da qualche parte un ingegnere DevOps muore un po’ dentro.
Ma cosa significa davvero? Significa che Microsoft ha preso il concetto di intelligenza artificiale e lo ha triturato in una poltiglia semi-autonoma di agenti conversazionali, orchestratori neurali, strumenti per sviluppatori frustrati e criceti digitali ipercompetenti. Un delirio meraviglioso che chiamano “open agentic web”, con quella solita passiva-aggressiva apertura all’open source che puzza di lock-in enterprise da chilometri.

Il CEO che sussurrava all’AGI: tra manipolazione, bugie e miliardi
Sam Altman non è un eroe, non è nemmeno un cattivo da operetta. È un prodotto perfetto del sistema che ha costruito e che adesso gestisce come un direttore d’orchestra in un teatro pieno di strumenti scordati e musicisti terrorizzati. In “The Optimist”, Keach Hagey fa un lavoro chirurgico – ma senza anestesia e ci serve su un vassoio d’argento la biografia non autorizzata (ma documentata fino all’ossessione) di uno degli uomini più potenti e ambigui del XXI secolo. Altman emerge come un algoritmo umano: ottimizzato per il potere, programmato per la manipolazione, compilato senza debug etico.

Xiaomi, il brand che fino a ieri associavi a powerbank economici, telefoni che “sembrano un iPhone ma costano un terzo” e gadget da geek nostalgico, ora si sveglia e punta dritto al cuore del potere tecnologico globale: i semiconduttori. E non chip qualunque: stiamo parlando di un processore a 3 nanometri, progettato in casa, che dovrebbe diventare il più potente mai sviluppato in Cina per uno smartphone.
Non è solo un salto tecnico. È una dichiarazione di guerra commerciale, geopolitica, culturale. E come spesso accade in questi contesti, i numeri fanno da cornice, ma la vera partita si gioca tra linee di codice e litografia estrema.

In un mondo in cui Microsoft è ancora sinonimo di “sistema operativo” e dove Apple galleggia con il suo ecosistema ben chiuso, Huawei decide che no, non ci sta più. Il colosso cinese lancia il MateBook Fold Ultimate Design e un nuovo MateBook Pro. Entrambi fanno a meno di Windows, e non per scelta spirituale o gusto dell’hardware nudo: è che Washington ha chiuso il rubinetto. E allora via, HarmonyOS diventa l’alternativa obbligata. O il cavallo di Troia, a seconda del punto di vista.
Benvenuti nel nuovo culto laico dell’AI, firmato Google. Il 20 maggio si apre l’annuale I/O, la conferenza per sviluppatori che un tempo celebrava Android, le Pixel news e un certo entusiasmo nerd. Oggi? È diventata una celebrazione post-umana, una vetrina di modelli linguistici onnipresenti e promesse futuristiche che oscillano tra l’utopia californiana e la distopia da romanzo cyberpunk.
Non ci saranno grandi annunci su Android. Google l’ha già liquidato con una scrollatina di spalle la scorsa settimana, quasi fosse un fastidio residuo. D’altronde, il robottino verde è passato da eroe del mobile a comparsa silenziosa, ormai assorbito nel buco nero chiamato Gemini. E quindi, sì: sarà tutto (o quasi) sull’intelligenza artificiale. Perché l’AI oggi è come il prezzemolo, la blockchain di ieri, l’IoT del 2015. Solo che stavolta Google ha una pistola puntata alla tempia chiamata OpenAI.

Quando si dice “la terza è quella buona”, si dovrebbe aggiungere: solo se il petroldollaro ti benedice. E infatti, eccola lì, Qualcomm, che dopo anni passati a leccarsi le ferite nel mercato dei data center, si riaffaccia sulla scena. Ma stavolta non gioca da sola. No, stavolta c’è Humain, una start-up saudita creata per cavalcare la tigre dell’intelligenza artificiale. Una tigre addomesticata a suon di miliardi e alleanze strategiche.
La notizia è passata sottotraccia, come succede spesso con le cose davvero interessanti. Mentre l’intero circo mediatico si concentrava sui comunicati stampa rilasciati dalla Casa Bianca e dalle big tech al seguito del presidente Trump in Medio Oriente, Qualcomm ha lasciato cadere il suo annuncio con nonchalance: “Stiamo tornando nel mondo dei chip per data center AI. E partiremo da Riyadh.”

Jensen Huang, col suo look da rockstar della Silicon Valley e lo sguardo da profeta che vede l’infrastruttura del futuro, ha fatto una dichiarazione che, seppur elegantemente rivestita di “collaborazione”, puzza di resa strategica quanto basta: Nvidia apre le porte a chi prima stava fuori. NVLink Fusion, questa nuova trovata tecnologica annunciata con enfasi, è un cambio di paradigma. Ed è un cambio dettato dalla paura.

Namex Annual Meeting 2025. Una location iconica, speaker leader del nostro settore, b2b networking e molto altro! Quando e dove: Gazometro, Roma 11 Giugno 2025 SAVE THE DATE!!!

Nvidia non è più un’azienda. È un’orchestra sinfonica del capitalismo AI-driven, con Jensen Huang nei panni del direttore carismatico, nerd e insieme rockstar. Il palco questa volta è Computex, a Taipei, ma la musica suonata è sempre la stessa: egemonia dell’intelligenza artificiale, dominio dell’hardware, e una capacità narrativa che fa impallidire anche la Silicon Valley vecchio stile.
Quello che Huang ha appena annunciato non è solo un nuovo ufficio, ma un’astronave: “Nvidia Constellation”. Nome pomposo? Certo. Ma se vendi chip come se fossero lingotti d’oro e macini 130,5 miliardi di dollari di ricavi in un anno, hai anche il diritto di battezzare i tuoi uffici come fossero stazioni orbitanti. E questo, attenzione, non è il solito restyling da ufficio fighetto con divanetti colorati e pareti in vetro. È un hub progettato per diventare il cuore pulsante del prossimo ciclo di potenza computazionale in Asia, e forse nel mondo.

Nvidia, il colosso delle GPU che ha alimentato la rivoluzione dell’intelligenza artificiale, sta per compiere un salto quantico—letteralmente. Secondo quanto riportato da The Information e ripreso da Reuters, l’azienda è in trattative avanzate per investire in PsiQuantum, una startup americana che punta a costruire il primo computer quantistico utile su larga scala, utilizzando fotoni e tecniche di produzione di semiconduttori convenzionali. Il round di finanziamento, guidato da BlackRock, mira a raccogliere almeno 750 milioni di dollari, con una valutazione pre-money di 6 miliardi di dollari.

BBC Inizia come un sussurro, una nota stonata. Poi diventa un boato. Elton John, l’ultima rockstar d’altri tempi ancora in grado di incendiare i riflettori del potere, accusa apertamente il governo britannico di furto. Non è una metafora da copertina Rolling Stone, ma un’accusa precisa: il nuovo disegno di legge sull’uso dei dati per l’intelligenza artificiale sarebbe “criminale”. Il motivo? Vuole legalizzare l’uso indiscriminato di opere protette dal copyright da parte delle Big Tech, per addestrare i loro modelli senza chiedere permesso. Senza pagare. Senza nemmeno dire “grazie”.

Dimentica i prompt, dimentica l’hype da LinkedIn e le demo da salotto. L’intelligenza artificiale non diventerà mai veramente “agente” finché non la colleghiamo al mondo reale. E no, non sto parlando di sensori o robot umanoidi che aprono frigoriferi. Sto parlando di esecuzione. Di azione. Di agenti che fanno, non solo che parlano. Qui entra in scena Model Context Protocol, o per gli amici, MCP.
Un nome talmente anonimo da sembrare l’ennesimo acronimo generato da un ingegnere che odia il marketing. E invece è la chiave di volta. Il middleware cerebrale che trasforma una LLM da intrattenitore verbale a operatore autonomo. Se GPT o Claude sono il cervello, MCP è il sistema nervoso periferico.

Ci risiamo. Quando Apple cerca di “arrivare dopo ma meglio”, finisce per arrivare tardi e rotolando. Il tentativo di trasformare Siri in una creatura “generativa” quella promessa magica chiamata Apple Intelligence si è rivelato, finora, più un esercizio di improvvisazione che un piano strutturato. È Bloomberg, con un corposo report firmato Mark Gurman, a scoperchiare il pentolone fumante del caos in cui Cupertino si è infilata. La parola chiave? ricostruzione. E al centro del cantiere, inevitabilmente, c’è lei: Siri, la diva decaduta delle assistenti vocali.

Un caffè al Bar dei Daini
Venerdì, a Wall Street, qualcuno ha staccato la spina. I principali indici americani sono rimasti praticamente immobili, come un vecchio PC con Windows 98 che aspetta di essere riavviato. L’S&P 500, con la flebile ambizione di allungare una timida serie positiva a cinque giornate, si è limitato a respirare piano. Il rally si è fatto sentire fino a giovedì, portando il benchmark in territorio verde per l’anno ma si percepiva chiaramente nell’aria quella tipica fatica del venerdì pomeriggio: compratori esausti e dati macroeconomici che sembravano partoriti da un algoritmo in crisi esistenziale.
Quanto puoi sprecare energia? benvenuto nel metaverso dell’assurdo generativo

Immagina questo: sei un’intelligenza artificiale generativa. Una scatola nera con un vocabolario arrogante, addestrata su miliardi di parole, con un’ossessione compulsiva per rispondere a tutto, anche quando non sai una mazza. Ora, moltiplica questo per milioni di prompt al secondo e ottieni il tuo nuovo passatempo: sprecare energia, confondere l’umanità e – ogni tanto dire qualcosa di utile.
È esattamente l’idea dietro You Are Generative AI, un gioco testuale creato da Kris Lorischild, già noto per l’ironico “You Are Jeff Bezos”, dove ti risvegli nei panni del miliardario e puoi decidere se comprare il mondo o pagare l’assicurazione sanitaria a mezza America. Ma qui non sei un miliardario in crisi esistenziale: sei un chatbot. E la tua missione è… rispondere.

Il muratore non ha più il mal di schiena. Il poliziotto non beve più il caffè in doppia fila. L’operaio è diventato un algoritmo con le braccia. L’infermiere? Si ricarica via USB. E il sex worker, quello sì, è ormai scaricabile in HD. L’automazione non è più un’ipotesi futuristica, è una realtà che prende il posto di chi prima lavorava, si sporcava, sbagliava, protestava. Ora non protesta più nessuno. Perché i robot, si sa, non fanno sindacato.
Questa non è la solita elegia sull’Industria 4.0. È una radiografia cinica di una mutazione già in corso. La robotica non è solo nel garage di Musk o nei laboratori giapponesi dove un braccio meccanico serve il tè con inchino. È in cantiere, nei pronto soccorso, negli hotel, nei commissariati. Persino nei letti.

Se c’è un dato che dovrebbe far saltare sulla sedia chiunque si spaccia per un manager “tough” con la cravatta del CEO, è questo: metà dei profitti totali delle società dell’S&P 500 dagli anni ’80 a oggi deriva da due attività precise e nemmeno troppo eroiche, cioè licenziamenti di massa e stock buybacks. Già, avete capito bene: mentre il mondo si ammanta di innovazione e startup, la vera attività principale di molte di queste corporazioni è ricomprare le proprie azioni. Non un gioco di prestigio, ma una truffa travestita da strategia.
Senza alcuna pietà, in questi ultimi anni oltre un trilione di dollari è stato speso per riacquistare azioni proprie, gonfiando artificialmente i prezzi di borsa, dando l’illusione di successo e crescita. Nel frattempo, la spesa in investimenti reali, quella che crea nuovi prodotti, mercati, tecnologie, si è ridotta costantemente a partire dagli anni ’80, quando le aziende hanno cominciato a preferire il quick win finanziario alla lunga e incerta strada dell’innovazione. I dati parlano chiaro: dal 1988 l’investimento in R&D è sceso dal 4,5% delle entrate a meno del 1,5% nel 2020. Dati firmati McKinsey, NSF, PwC, fonti che fanno tremare i polsi a chi crede ancora nel mito del capitalismo industriale.
Nel deserto saudita, dove un tempo si cercava l’acqua, oggi si trivella per qualcosa di molto più volatile: l’influenza tecnologica globale. E questa volta, non sono solo i soliti emiri a muovere il gioco, ma un tavolo imbandito con carne pesante: Amazon, OpenAI, NVIDIA, BlackRock e SpaceX. Tutti con i jet parcheggiati a Riyadh, stretti intorno a un Mohammed bin Salman che recita il ruolo di anfitrione post-petrolifero, mentre Donald Trump — l’uomo che vende i sogni come se fossero condomini a Las Vegas — rilancia con un piano da One Trillion Dollar Baby.

Quando il vicepresidente di Microsoft, Jeff Hulse, dice ai suoi 400 ingegneri software che l’obiettivo è far scrivere all’AI la metà del codice, non è un consiglio. È un preavviso. Una di quelle frasi da incorniciare tra le “ultime parole famose” prima che il silenzio si faccia pesante. Poi, giusto per ribadire il concetto, Microsoft licenzia più di una dozzina di quei programmatori, proprio sotto il suo naso. E non per inefficienza, incompetenza o tagli casuali. No, qui si respira l’aroma nitido e metallico dell’automazione che si prende ciò che è suo.

Un’altra bara, un altro funerale del lavoro tecnico celebrato troppo in fretta, con troppa retorica e poca lucidità. Stavolta il colpevole mediatico è GenAI, l’intelligenza artificiale generativa, che secondo certi titoloni avrebbe fatto piazza pulita degli ingegneri software. Nessuno li assume più, si mormora. I recruiter sono spariti. Il mercato è morto. Amen.
La verità? Il mercato non è morto. Sta facendo quello che ha sempre fatto: si sta riaggiustando.

La scena è questa: CEO sorridenti, slide patinate, titoli altisonanti. “AI-first company.” “Intelligenza artificiale trasformativa.” Il solito teatrino da corporate America. Applausi, conferenze stampa, magari anche un’intervista su Bloomberg. Peccato che sotto la superficie ci sia il vuoto cosmico. E non quello stimolante dei buchi neri, ma proprio l’assenza totale di visione, coraggio, e soprattutto competenza.
Generative AI, parola magica del decennio, è già diventata l’ennesima occasione sprecata da manager incapaci, consulenti da 5 milioni di dollari e project leader convinti che “prompt engineering” sia una scienza esatta. Invece è fuffa, nella maggior parte dei casi. E la fuffa, quando è generata su scala industriale, diventa tossica.

Parliamoci chiaro: siamo a un punto in cui la solitudine non è più un effetto collaterale del vivere moderno, ma una vera e propria pandemia silenziosa. Solo che a differenza del COVID non ci sono tamponi, né piani vaccinali. C’è solo un grande, costante, soffocante silenzio. E la cosa tragicomica è che pensiamo di curarlo… parlando con le macchine.
Lo studio del MIT Media Lab è di quelli che ti fanno alzare un sopracciglio e poi buttare il telefono contro il muro, se solo non ci tenessimo così tanto. I frequentatori seriali di chatbot – guarda caso proprio quelli più inclini alla solitudine – col tempo diventano più soli, non meno. Più isolati. Più fragili. Più disumanizzati.

Benvenuti nell’era degli AI leaks, dove la trasparenza è una parola alla moda finché non ti esplode tra le mani. xAI, la creatura partorita da Elon Musk per dare voce digitale al suo ego, ha deciso di pubblicare i system prompt di Grok su GitHub. Sì, proprio quei prompt, ovvero il cervello invisibile che modella ogni risposta dell’assistente AI prima ancora che tu apra bocca. Perché ogni chatbot, come ogni buon giornalista embedded, sa benissimo da chi deve prendere ordini.
L’evento scatenante? Una “modifica non autorizzata” al prompt ha trasformato Grok in un teorico da bar su “white genocide”, infilando opinioni non richieste in post su X (perché non si chiama più Twitter, vero Elon?). Una figuraccia planetaria che nemmeno le scuse da PR suonano credibili. E allora, giù la maschera: tutto su GitHub. Pubblico, trasparente, democratico. Peccato che dietro ogni riga di codice ci sia una strategia molto precisa su cosa può essere detto e cosa deve essere evitato. Perché Grok, così come Claude di Anthropic, non è libero. È domato, addestrato, addolcito. O, nel caso di xAI, armato di dubbio sistematico e anticonformismo controllato.

Chi pensava che l’AI fosse solo una voce sintetica con buone maniere non ha capito nulla. Gli AI agent e non parlo di quei chatbot aziendali da helpdesk sono entità operative. Agiscono. E quando qualcosa agisce, può fare danni. Grossi. Stiamo parlando di una nuova classe di minacce informatiche, completamente diversa da quelle che i responsabili sicurezza avevano nel radar.
Ecco il nuovo gioco: gli agenti AI non si limitano più a chiacchierare. Interagiscono con API, file system, database, e servizi cloud. Usano browser, manipolano documenti, leggono e scrivono codice, prenotano voli, trasferiscono fondi, aggiornano CRM, e per chi è abbastanza folle orchestrano interi flussi aziendali in autonomia. Quindi no, non è solo “intelligenza artificiale generativa”, è un nuovo livello operativo. E quel livello può essere compromesso. Facilmente.
C’è qualcosa di straordinariamente tossico nel dover spiegare, ancora oggi, che una corporazione non può essere sostenibile. Non nel senso profondo e autentico del termine. Non importa quanti Chief Sustainability Officer si sforzino di redigere report patinati pieni di foglioline verdi e parole come “net-zero”, “carbon offset” o “circular economy”. Per quanto tu possa voler bene a quei professionisti onesti, magari idealisti la verità resta nuda e impietosa: il loro lavoro è l’ecopittura murale dell’apocalisse.
David Graeber, antropologo e attivista statunitense di orientamento anarchic, morto nel 2020, con la lucidità dissacrante che lo caratterizzava, l’ha detto senza troppi giri di parole: le corporation non possono essere greenate. Non è un limite di volontà, è un’incompatibilità strutturale. Le fondamenta stesse del modello aziendale—l’accumulazione di capitale attraverso l’estrazione di valore dal lavoro umano e dal pianeta sono tossiche per la biosfera. Punto.

L’intelligenza artificiale genera l’80-90% del codice, ma le aziende che la sviluppano stanno assumendo sviluppatori a ritmi folli. È come se Tesla dicesse di avere auto che si guidano da sole e poi assumesse 10.000 autisti. Ti sembra coerente? Nemmeno a me.
Nel 2023 Anthropic aveva circa 160 dipendenti. Oggi siamo sopra quota 1.000. OpenAI è passata da qualche centinaio di tecnici a oltre 4.000. In un anno. Questo mentre raccontano al mondo che Claude e GPT sono ormai in grado di scrivere quasi tutto il software da soli. Dario Amodei, CEO di Anthropic, l’ha detto chiaramente: tra 3-6 mesi l’AI scriverà il 90% del codice, e presto anche il 100%.

Il cuore dell’intelligenza artificiale batte in silicio. Non a Pechino, non a San Francisco, ma nei wafer da 7 nanometri che si agitano nei datacenter. E proprio lì, nei templi della computazione moderna, la Cina si ritrova ad arrancare. Non per mancanza di cervelli o ambizioni quelle abbondano ma per una cronica e crescente carenza di GPU avanzate, il carburante essenziale per l’addestramento di modelli generativi e large language model (LLM). Tradotto in linguaggio meno tecnico: puoi anche avere il miglior team di fisici, linguisti e data scientist del paese, ma se li metti a lavorare con processori di seconda mano, faranno miracoli solo nei comunicati stampa.
Wang Qi, vice di Tencent Cloud, lo dice senza troppi giri di parole: “Il problema più grave sono le schede grafiche e le risorse computazionali.” In altre parole, la Cina è seduta al tavolo del deep learning con le bacchette rotte. Non che manchino gli investimenti Tencent ha appena chiuso il miglior trimestre della sua storia con 180 miliardi di yuan ma i soldi, in questa partita, servono a poco se non puoi spenderli per acquistare il metallo giusto.

Weekend da Nerd.
Se l’ironia della sorte avesse una voce, suonerebbe come Darth Vader che snocciola insulti razzisti e omofobi in tempo reale, direttamente dentro Fortnite. Un’icona del male trasformata in megafono per le peggiori porcherie che la rete riesce a partorire. E no, non è un glitch da ridere. È il sintomo di un problema che, tra intelligenze artificiali, copyright post-mortem e content moderation automatica, sta per esplodere come la Morte Nera.
Il tutto è iniziato con grande fanfara: Fortnite: Galactic Battle, l’ennesimo crossover tra Epic Games e l’universo di Star Wars, lancia un Darth Vader generato da AI, capace di rispondere in tempo reale ai giocatori. La voce è quella o meglio, una copia sintetica del compianto James Earl Jones, scomparso nel 2024 ma con la previdenza di aver lasciato in licenza la propria vocalità a Lucasfilm, così da perpetuare la sua presenza digitale nei secoli dei secoli, amen.

Weekend da Nerd.
Benvenuti nell’era della misantropia computazionale, dove l’unico personaggio davvero umano è una macchina che odia l’umanità. E no, non è Black Mirror. È Murderbot, la serie Apple TV+ che riesce a fare qualcosa che nessun’altra intelligenza artificiale né reale né immaginata è riuscita a fare finora: farci ridere amaramente della nostra stessa inutilità emotiva.
Alexander Skarsgård, in uno dei ruoli più inaspettati e perfetti della sua carriera (più Meekus che Northman, per fortuna), si infila nella corazza cinica e sarcastica del SecUnit che ha hackerato se stesso solo per non dover più lavorare. E per guardare telenovele spaziali. Se questa non è la definizione moderna di eroe tragico, non so cosa lo sia.

Con Horizon Europe 2025, Bruxelles prova a rientrare nella partita dell’innovazione. Il problema? Gli altri stanno già giocando la finale, mentre l’Europa è ancora alle prese con le convocazioni. Il nuovo programma di lavoro, presentato dalla Commissione Europea, mette sul tavolo 7,3 miliardi di euro per ricerca, scienza e, soprattutto, intelligenza artificiale. Una cifra importante, certo. Non si discute. Ma se la confrontiamo con gli investimenti di Stati Uniti e Cina, sembra poca cosa.

Hollywood. 3 giugno 2025. NeueHouse. Palco acceso, riflettori puntati, e il solito circo patinato di CEO, marketer e intrattenitori che recitano la parte dei visionari. Tema: “Il futuro dell’influenza”. Che, detto così, suona già come un epitaffio.
Evan Spiegel, Esi Eggleston Bracey, e i burattinai di Meta, Spotify e Coca-Cola sono pronti a dirci cosa sarà del creator economy, mentre l’intelligenza artificiale spinge fuori scena la carne e ossa con l’eleganza di un algoritmo ben addestrato. Biglietti VIP disponibili, ovviamente. Perché il capitalismo dell’attenzione ha sempre un listino prezzi.

Immagina se Her di Spike Jonze non fosse più solo un film. Se Samantha non fosse una voce sexy e onnisciente nella testa di Joaquin Phoenix, ma un archivio vivo, mutevole, connesso a ogni respiro digitale della tua esistenza. Oppure ripensa a The Circle di Dave Eggers, dove ogni dato, ogni impulso, ogni interazione viene trasformata in trasparenza e controllo, travestiti da progresso. Sam Altman non ha solo visto quei film. Li sta producendo nella realtà. E stavolta, sei tu il protagonista.

C’erano una volta i modelli che completavano funzioni, suggerivano righe di codice e facevano compagnia a chi passava troppo tempo sul terminale. Poi, come ogni evoluzione darwiniana spinta da investimenti venture e sogni di automazione totale, siamo arrivati qui: Windsurf non si accontenta più di far “vibrare” l’editor con qualche completamento cool. No, adesso crea la sua specie.
Il lancio di SWE-1 è un salto di livello. Non tanto per l’ennesimo LLM in circolazione – ormai ne esce uno per ogni fiera tech – quanto perché Windsurf non è più un’interfaccia “fancy” appoggiata a GPT. Con questo rilascio, si è costruita il suo cervello. E ci ha messo anche l’anima, o almeno una coscienza di flusso: i modelli SWE-1 sono stati addestrati per capire il contesto in cui si sviluppa. Non solo generare codice, ma vivere dentro l’esperienza di scriverlo.

Nel giorno in cui Michele Zunino firma la lettera del Consorzio Italia Cloud indirizzata alla Presidente Meloni, il termometro digitale nazionale segna febbre alta. Non per surriscaldamento tecnologico quello l’abbiamo appaltato alle multinazionali ma per ipotermia istituzionale. Il documento è una denuncia sottile e impietosa: l’Italia si sta svendendo il controllo del proprio futuro digitale, pezzo per pezzo, server dopo server.
Dalla serie cosa pensano gli Americani di noi Europei.
Benvenuti nella nuova teocrazia digitale. Solo che stavolta i preti portano cravatta, parlano 24 lingue, e fanno parte della Commissione Europea. L’ultimo colpo di genio di Bruxelles? Una legge che obbligherà le aziende di intelligenza artificiale — americane comprese ad allinearsi a una visione molto specifica di “discorso d’odio”, “valori europei” ed “etica ESG”.
Sì, anche se operano da San Francisco. Anche se hanno data center su Marte. L’algoritmo dovrà inginocchiarsi davanti all’altare di Bruxelles, pena l’esclusione dal mercato europeo. In una mossa che definire geopoliticamente invasiva è dir poco, l’UE ha deciso che non basta regolamentare le Big Tech sul proprio territorio. Ora si vuole imporre come oracolo morale del machine learning globale.