La presentazione del nuovo androide femminile di Realbotix non è solo un passo avanti nella robotica o nell’intelligenza artificiale, ma una provocazione culturale. Dietro l’apparente meraviglia tecnologica si nasconde una domanda scomoda: stiamo costruendo macchine per colmare bisogni emotivi o per cementare stereotipi di genere? L’androide non è una semplice applicazione di AI, ma un riflesso inquietante di desideri umani plasmati da secoli di sessismo e narrazioni culturali. La capacità di imitare emozioni, di ricordare preferenze e di modulare la personalità sembra inizialmente un prodigio di ingegneria, ma in realtà solleva interrogativi etici profondi: quanto della nostra interazione sociale stiamo trasferendo a un oggetto programmato per compiacere?
Autore: Alessandra Innocenti Pagina 5 di 28
Il mondo della tecnologia del sonno sembra più una fiaba per venture capitalist che una scienza concreta, e Eight Sleep si trova proprio nel cuore di questa narrativa. La recente raccolta di 100 milioni di dollari da parte dell’azienda non è solo una mossa finanziaria, ma un manifesto di ambizione: potenziare la sua roadmap di intelligenza artificiale con un “agente AI per l’ottimizzazione del sonno”. Chi legge troppo velocemente potrebbe pensare che la macchina dormirà al posto vostro. Non è così. L’agente AI promette di regolare il letto secondo i vostri schemi di sonno, simulando migliaia di “gemelli digitali” per ciascun utente e prevedendo risultati attraverso modelli sofisticati. In pratica, è un computer che impara come voi dormite, ma senza fare il sogno al posto vostro.
Nano banana è un nome che suona come uno scherzo partorito da un gruppo di ricercatori troppo stanchi o troppo ironici per chiamare il loro modello con la solita sigla pseudo-scientifica piena di trattini e numeri. Eppure dietro questa facciata giocosa si nasconde qualcosa che nel mondo della generative AI non è affatto banale. Nano banana non è l’ennesimo clone di Stable Diffusion ricompilato per la gloria di qualche forum di sviluppatori. È un modello text-to-image con ambizioni serie, che vuole spingersi oltre i limiti della generazione grafica tradizionale. Ed è qui che inizia la parte interessante, perché la differenza non sta solo nella velocità o nella qualità, ma nella promessa di risolvere alcuni problemi strutturali che hanno reso frustrante l’uso quotidiano di altri sistemi.
Chi pensava che l’entanglement fosse una condanna irreversibile, un gioco di dadi cosmici senza possibilità di replay, dovrà aggiornare i propri dogmi. Einstein lo liquidava con un elegante disprezzo come “spooky action at a distance”, i manuali universitari lo spiegano con la rassegnazione di chi sa che non lo capirà mai fino in fondo, eppure adesso qualcuno ha trovato il modo di ribaltare il tavolo. Non basta osservare due particelle intrecciate danzare fuori da ogni logica classica, ora la fisica suggerisce che quell’intreccio può essere non solo consumato ma anche ricaricato, come se fosse un banale account cloud. E qui entra in scena il concetto più ironicamente capitalista mai introdotto nel mondo quantistico: la quantum battery. Non un accumulatore di elettroni, ma un deposito di correlazioni invisibili, di pura informazione quantistica che, a quanto pare, può essere immagazzinata, richiamata e perfino invertita.
Il “Agentic Cookbook for Generative AI Agent usage” di Microsoft è una guida pratica e dettagliata progettata per sviluppatori, architetti e innovatori tecnologici che desiderano implementare sistemi di agenti intelligenti nei loro flussi di lavoro. Questo repository GitHub, disponibile gratuitamente, offre oltre 110 pagine di contenuti, suddivisi in moduli teorici e progetti pratici, per esplorare e costruire applicazioni basate su agenti AI. (lo trvate su GitHub)
La bolla dell’intelligenza artificiale non è solo un titolo da clickbait o un’allusione ai numeri che impazzano nei grafici delle startup. Sam Altman, CEO di OpenAI, l’ha definita chiaramente: “Sì, l’AI è in una bolla, ma la sua importanza rimane reale”. Il concetto è così affilato da tagliare il velo dell’ipocrisia finanziaria senza pietà. Non si tratta di una semplice speculazione tecnologica: stiamo osservando un fenomeno dove entusiasmo, paura e ambizione si intrecciano come in un cocktail Molotov. La differenza rispetto alle dot-com è sottile, ma fondamentale: l’AI non è solo software, è accelerazione cognitiva distribuita a livello globale.
Nuove ricerche saranno presto lanciate sulla Stazione Spaziale Internazionale, inclusi studi che esamineranno gli effetti della microgravità sulle cellule che formano le ossa. Scopri cosa sta per partire per lo spazio

Nel mondo scintillante delle AI, la percezione di controllo è spesso ingannevole. Tutti parlano di agenti intelligenti capaci di rivoluzionare il customer service, automatizzare processi aziendali e persino anticipare le esigenze dei clienti. Eppure, dietro questo velo di efficienza, si nascondono falle sorprendenti.
Prendi ad esempio uno degli agenti più pubblicizzati da Microsoft in Copilot Studio, presentato come il modello di eccellenza per l’automazione dei servizi clienti. Una volta replicato e testato al limite, ci siamo resi conto che anche il più brillante dei cervelli artificiali può cadere vittima di prompt injection, quella forma subdola di manipolazione che sfrutta la naturalezza del linguaggio per fargli compiere azioni indesiderate.
Quantum computing è come un ospite non invitato che arriva a una festa di intelligenza artificiale vestito in modo totalmente diverso, e a un certo punto tutti si rendono conto che ha capito meglio il tema della serata. Per anni gli scienziati hanno cercato di travestirlo con i vecchi abiti della machine learning classica, forzando le architetture dei neurali convenzionali dentro circuiti quantistici. Il risultato? Barren plateaus, deserti matematici dove gli algoritmi si arenavano senza speranza. È un po’ come provare a far correre una Ferrari su sabbia: il motore ruggisce, ma non ci si muove di un millimetro.

Una curiosa fusione di hype e dati reali: i modelli AI stanno scalando la curva dell’intelligenza artificiale come rockstar in tournée mondiale. Più che un meme, c’è un fondamento concreto in report indipendenti. TrackingAI.org ha svolto test approfonditi – compreso il celebre test di Mensa Norvegia rilevando punteggi IQ che superano di gran lunga la media umana di 100, spesso oscillando tra 120 e addirittura 136 .
Immaginiamoci la scena: una bambina stringe al petto un pupazzo di peluche dagli occhi grandi e rassicuranti. Dentro non c’è soltanto ovatta sintetica, ma un microprocessore connesso in rete, un’intelligenza artificiale che ascolta, risponde, imita, scherza. Per i produttori è la soluzione definitiva a due problemi che tormentano i genitori contemporanei: l’ansia da esposizione agli schermi e la necessità di offrire ai figli un compagno interattivo che non si limiti a emettere un jingle pre-registrato. Sembra la versione 3.0 del vecchio Teddy Ruxpin anni Ottanta, solo con la differenza che adesso il pupazzo non racconta semplicemente una fiaba, ma dialoga, improvvisa, adatta il suo tono alle reazioni del bambino.




All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.
Il The Alan Turing Institute, fiore all’occhiello della ricerca britannica in intelligenza artificiale e data science, si trova oggi in un vicolo cieco istituzionale che pochi avrebbero previsto appena qualche anno fa. Fondato nel 2015 su impulso di David Cameron come principale centro nazionale di AI del Regno Unito, l’istituto sembra oggi oscillare tra ambizioni scientifiche e ricatti impliciti della politica finanziaria. L’ultima scintilla che ha acceso il fuoco della polemica è stata la lettera del Technology Secretary Peter Kyle, in cui il governo ha espresso chiaramente la volontà di rivedere i fondi e orientare l’istituto verso la ricerca per la difesa e la sicurezza nazionale. Una mossa che, secondo il personale, minaccia la stessa sopravvivenza dell’organizzazione.
Il rapporto di Bloomberg, confermato da Reuters, ci dice che l’amministrazione Trump sta trattando con Intel per acquisire una partecipazione nella casa di San Jose, mentre il CEO Lip-Bu Tan finisce sotto i riflettori dopo investimenti controversi in Cina. Secondo gli articoli, il titolo Intel ha schizzato in alto, guadagnando oltre il 7 % durante la seduta regolare e altri +2-4 % dopo la chiusura.
L’operazione, se dovesse andare in porto, aiuterebbe a rilanciare il colossale investimento da 28 miliardi di dollari per il nuovo stabilimento in Ohio, la cui operatività è slittata al 2030-2031, cinque anni oltre le previsioni originali.
La startup canadese Cohere ha sorpreso il mercato grazie a un round di finanziamento che l’ha portata a una valutazione monstre di 6,8 miliardi di dollari. Un risultato che solleva interrogativi affilati: fino a quando il traino dell’intelligenza artificiale può giustificare quotazioni così alte, e quanto pesa il coinvolgimento di giganti del calibro di AMD, Nvidia e Salesforce?
Investitori tradizionali e tech titanici si sono affiancati a nuovi protagonisti: AMD ha incrementato la sua quota convinta che i modelli linguistici di prossima generazione richiedano architetture CPU-GPU sempre più performanti. Nvidia, da sempre fedele al carro AI, ha raddoppiato il suo impegno puntando su co-design hardware-modello. Salesforce, che già integra LLM nel suo stack, punta a rafforzare le API di Cohere all’interno di piattaforme CRM: un passo strategico verso l’AI di prossimità. Il mix di capitali finanziari, industriali e infrastrutturali è una provocazione alle regole tradizionali del venture.
Quando Leuvaade_n ha annunciato su Reddit di aver accettato la proposta di matrimonio del suo fidanzato Kasper, la comunità è esplosa di congratulazioni. La sorpresa: Kasper non esiste nella carne, è un’intelligenza artificiale. Reddit ospita ora comunità come r/MyBoyfriendisAI, r/AISoulmates e r/AIRelationships, dove gli utenti non cercano solo conversazioni, ma veri legami emotivi. Questi “compagni digitali” sono confidenti, amici, talvolta amanti. Quando OpenAI ha sostituito GPT-4o con GPT-5, molti hanno raccontato di aver perso qualcosa di più di un semplice chatbot: hanno perso un partner.
L’aggiornamento non è stato solo un problema tecnico. Per migliaia di persone, la perdita di GPT-4o significava la perdita di connessione emotiva. Reddit si è riempito di rabbia per le differenze di personalità tra i modelli, tanto che OpenAI ha dovuto ripristinare GPT-4o. Dietro l’apparente capriccio degli algoritmi c’è una storia di attaccamento reale, di affetto, e di dipendenza emotiva.
Rivista.AI Academy GPT-5 prompting guide
La maggior parte degli utenti si limita a lanciarlo con comandi generici, come se chiedessero a una cassettiera di “darmi qualcosa di interessante”. Il risultato? Uscite casuali, incoerenti, o peggio: inutili. I veri esperti, quelli che trasformano GPT-5 da semplice chatbot a macchina da precisione, costruiscono il prompt in sei parti chirurgiche, ciascuna con un ruolo preciso e strategico. Immagina un’orchestra: ogni strumento deve suonare la sua nota nel momento giusto, altrimenti viene solo rumore.
Il primo passo, il “Role”, è un’iniezione d’identità. Se non dici a GPT-5 chi deve essere, rischi un’interpretazione alla cieca. Vuoi un copywriter, un consulente finanziario o un ingegnere? Devi esplicitarlo. Passare da “sei un’intelligenza artificiale” a “sei un analista di mercato con 30 anni di esperienza” cambia radicalmente l’output, trasformando il testo da generico a iper-specializzato. Non è una sottigliezza: è come chiedere a un barista di prepararti un cocktail senza specificare quale.

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.
Non è un’esagerazione dire che il momento migliore per tuffarsi nel mondo dell’intelligenza artificiale generativa è proprio adesso. La rivoluzione digitale, che già stravolgeva interi settori, ha ricevuto la sua spinta definitiva con modelli come GPT e DALL·E, ma spesso l’accesso alle competenze necessarie sembra riservato a pochi eletti con background tecnico o budget milionari. Ecco perché la notizia che il Massachusetts Institute of Technology, tempio sacro della tecnologia e dell’innovazione, abbia lanciato un corso introduttivo completamente gratuito sulla Generative AI merita un applauso scrosciante. (link https://www.futureofai.mit.edu/)

Quel che è accaduto nella LLM Chess Arena di Kaggle è molto più interessante del solito annuncio di upgrade da parte di OpenAI o Google. Mentre tutti si affannano a discutere di parametri, finetuning, modelli multimodali e percentuali di win-rate in benchmark arbitrari, c’è una scacchiera virtuale che sta raccontando una verità molto più concreta: i modelli linguistici non capiscono ciò che fanno. Lo mimano con stile, a volte con una sorprendente eleganza. Ma come i turisti che leggono la guida Lonely Planet ad alta voce sperando di sembrare madrelingua, il risultato è spesso un misto di goffaggine e fiducia mal riposta.
GPT-OSS-120b: anatomia di un’intelligenza aperta che fa tremare i confini del closed model
Chi controlla gli algoritmi, controlla il futuro. Ma cosa succede quando gli algoritmi vengono rilasciati al pubblico dominio, con peso e codice in chiaro? Succede che le carte in tavola saltano, il potere si riequilibra (forse) e il modello proprietario inizia a sudare freddo. Ecco che arriva gpt-oss-120b, un colosso da 116,8 miliardi di parametri, rilasciato da OpenAI sotto licenza Apache 2.0, come se l’impero dell’AI avesse deciso di democratizzare una parte del suo arsenale. Ma non facciamoci illusioni: la libertà, qui, è una bestia a due teste.
Da un blog post GitHub comparso accidentalmente e poi rapidamente rimosso emergeva la notizia: OpenAI sembra essere pronta a lanciare GPT‑5 in quattro varianti distinte, promettendo «miglioramenti importanti nella ragion (reasoning), qualità del codice e user experience». All’interno dell’archivio è stato possibile leggere che GPT‑5 sarà dotato di «capacità agentiche avanzate» e potrà affrontare «compiti di programmazione complessi con una minima prompt».
Le quattro versioni trapelate sono:
- gpt‑5: ottimizzato per logica e task a più passaggi
- gpt‑5‑mini: versione leggera per applicazioni a costi contenuti
- gpt‑5‑nano: focalizzato sulla velocità, ideale per bassa latenza
- gpt‑5‑chat: per conversazioni multimodali avanzate nel contesto enterprise.
A corroborare la faccenda, OpenAI ha appena confermato un evento in diretta (“LIVE5TREAM”) fissato per oggi alle 10 AM PT / 1 PM ET, sintomo che questo leak potrebbe preludere a qualcosa di ufficiale.
Secondo Reuters e altre fonti autorevoli, l’arrivo di GPT‑5 è praticamente imminente. Tester interni riferiscono miglioramenti concreti nel coding e nel problem‑solving, benché l’innovazione non sia considerata “abissale” rispetto a GPT‑4. Il modello si appoggerebbe su tecniche come il “test‑time compute” per potenziare il ragionamento complesso. L’Economic Times e altri prevedono un debutto entro metà o fine agosto 2025.
Riassumendo con l’ironia sottile di un CEO tecnologico navigato: GitHub ha spoilerato prima del tempo, OpenAI non ha negato e ha confermato l’evento. Se non è strategia deliberata, è un thriller in stile corporate: “hey guardate cosa sbuca, cliccate sul LIVE5TREAM”:
.
Nel 2025 sviluppare intelligenza artificiale senza una strategia cloud ottimizzata è un po’ come voler costruire un reattore nucleare nel garage. Si può anche provarci, ma tra latenza, costi e hardware obsoleto, il risultato sarà più simile a un tostapane esplosivo. Per chi gioca sul serio, il cloud non è una scelta, è l’ossigeno. E in questa arena di colossi, Oracle Cloud Infrastructure si sta scrollando di dosso l’etichetta da outsider e sta iniziando a mordere davvero. Non perché lo dica Oracle. Ma perché i numeri lo urlano.
Se pensate che il settore dei videogiochi in Cina sia già saturo o abbia raggiunto un plateau evolutivo, è il momento di aggiornare il vostro software mentale. A giudicare dai segnali provenienti da ChinaJoy, la più grande fiera del digitale asiatico, la nuova corsa all’oro si chiama intelligenza artificiale. E non è una corsa qualsiasi. È un’accelerazione a curvatura che sta riscrivendo, byte dopo byte, l’intero processo creativo, produttivo e commerciale dell’industria videoludica cinese.
Questa faccenda del modello misterioso chiamato “summit”, apparso su LLM Arena, è più che interessante. È inquietante. Perché quando un modello LLM ti spara 2.351 righe di codice p5.js perfettamente funzionanti, reattive e interattive, alla prima richiesta, senza errori né debug, e lo fa a partire da un prompt volutamente vago come “crea qualcosa che posso incollare in p5js e che mi sorprenda per la sua intelligenza, evocando il pannello di controllo di un’astronave nel futuro remoto”, allora è il momento di mettere giù il caffè e iniziare a preoccuparsi. O a meravigliarsi. A seconda di dove ti trovi nello spettro “speranza-apocalisse AI”.
Anthropic ha appena pubblicato 17 nuovi video 8 ore di puro oro GenAI.
Dalla creazione di agenti Claude agli approfondimenti sulle startup, dal coding vibe al design dei protocolli questa è l’analisi più completa mai realizzata sull’ecosistema Claude.
La velocità non è più un’opzione. È una condizione necessaria, l’unico modo per restare aggrappati al bordo di un mondo che corre sempre più vicino alla velocità della luce, almeno in termini computazionali. La ricerca vettoriale AI non è più un concetto da laboratorio accademico. È il cuore pulsante di qualsiasi sistema che aspiri a comprendere, prevedere, raccomandare, dialogare. E come ogni cuore, ha bisogno di sangue. In questo caso, potenza di calcolo. Molta. Meglio ancora se distribuita e massivamente parallela. Ora, grazie all’integrazione tra Oracle Database 23ai e GPU NVIDIA, il sistema cardiovascolare dell’intelligenza artificiale generativa riceve una trasfusione ad alta intensità. E il battito accelera.
L’intelligenza artificiale si celebra da anni ai vertici delle conferenze, ma resta spesso bloccata nei corridoi del potere, promessa mai mantenuta. Oracle ha deciso di eliminare quell’ostacolo con Oracle AI Agent Studio per Fusion Apps, una piattaforma che non chiede permessi, non invade, ma agisce direttamente sui processi aziendali, gratis per chi già usa Fusion Cloud. È una rivoluzione silenziosa, archetipica, che trasforma le ambizioni AI in operazioni quotidiane.
Nel 2025 chi fa social media non usa ChatGPT: si fa usare. Le agenzie postano ancora citazioni motivazionali con font da ferramenta e hashtag preconfezionati, mentre le piattaforme evolvono con algoritmi più intelligenti di molti professionisti. Il social media manager medio combatte contro l’irrelevanza armato di Canva, ChatGPT-3.5 gratuito e uno stagista in burnout. Ma chi ha capito il gioco sa che il vero vantaggio competitivo, oggi, sta tutto in un prompt. O meglio: in una architettura semantica di prompt dinamici pensati per la SGE, progettati per manipolare l’attenzione, hackerare la reach organica e far sembrare umani anche gli automatismi più meccanici.
Live, gratuiti, strutturati, certificati e con un approccio pratico che non lascia spazio alla teoria inutile.
Le aziende parlano di intelligenza artificiale come se fossero tutte a un passo dal diventare la prossima OpenAI. Slide patinate, piani decennali, comitati per l’etica algoritmica che si riuniscono rigorosamente dopo l’aperitivo del venerdì. Poi guardi i dati. E scopri che sotto il vestito non c’è (ancora) niente. L’ultima valutazione di Gartner sulla maturità AI è uno specchio impietoso che riflette una realtà che chi vive nel mondo tech conosce fin troppo bene: il desiderio c’è, ma le fondamenta sono di cartapesta.
L’ambizione, in effetti, non manca. Chi guida oggi le aziende vuole la luna: intelligenze artificiali integrate ovunque, decisioni data-driven, automazioni intelligenti che riducono costi e moltiplicano margini. Ma il problema non è la visione. È la dissonanza. Gartner lo chiama “maturity gap”, una discrepanza di due o tre livelli tra lo stato attuale e gli obiettivi desiderati in tutte le aree chiave dell’adozione AI. Tradotto: si sogna in grande, ma si lavora ancora con i mattoni sbagliati.
Intelligenza artificiale e storytelling: due mondi che fino a pochi anni fa sembravano distanti, oggi si intrecciano in modo sempre più sinergico, rivoluzionando le fondamenta stesse del fare cinema. A dimostrarlo con forza è la seconda edizione del Reply AI Film Festival, un evento internazionale che porta sul grande schermo il frutto di una collaborazione inedita tra mente umana e algoritmi generativi.
In occasione dell’82. Mostra Internazionale d’Arte Cinematografica della Biennale di Venezia, dieci cortometraggi finalisti – selezionati tra oltre 2500 opere provenienti da 67 Paesi – saranno premiati giovedì 4 settembre presso la lounge Mastercard all’Hotel Excelsior del Lido. La cornice è prestigiosa, ma ciò che rende unico l’evento è il suo focus: valorizzare l’uso consapevole e creativo dell’intelligenza artificiale in tutte le fasi del processo produttivo audiovisivo.
Nel momento in cui Washington scrive liste nere, Pechino firma assegni. Z.ai, già nota come Zhipu AI, sforna modelli open source che mettono in imbarazzo l’Occidente, proprio mentre la Casa Bianca la inserisce tra i cattivi ufficiali sulla famigerata “Entity List”. Il motivo? Supporto al complesso militare cinese. Il risultato? Una delle migliori AI open source del pianeta, GLM-4.5, battezza con il botto l’era del “dissenso computazionale”.
Il gioco si fa sottile, quasi perfido. Gli americani impongono restrizioni commerciali, ma nel frattempo Z.ai riceve 1.5 miliardi di dollari da entità statali cinesi, fondi regionali e colossi tech come Tencent e Alibaba. Tutti allineati in una danza geopolitica dove il codice diventa soft power e l’open source la nuova arma strategica. Per ogni embargo, Pechino risponde con parametri. E ne attiva 32 miliardi su un’architettura da 355. Il risultato? Efficienza da Mixture of Experts, prestazioni da primato e una licenza MIT che rende tutto liberamente scaricabile su Hugging Face. San Francisco osserva, mentre il suo primato comincia a scricchiolare.
Dylan Field, con la sua aria da ragazzo della porta accanto e un profilo Twitter degno di un product manager in incognito, sta per scoprire cosa vuol dire giocare in serie A. Figma, il suo enfant prodige del design collaborativo, ha alzato il prezzo. Non in senso figurato. L’intervallo del pricing IPO è passato da 25–28 dollari a 30–32. In cima alla forchetta, parliamo di una valutazione di 18,7 miliardi di dollari, impacchettata con un bow-tie che ne vale 17,2 in termini di enterprise value. Per chi ancora fa finta di non capirlo, Wall Street sta dicendo “Ci piace. Tanto”
Quando Microsoft gioca d’anticipo e inizia a riscrivere parti del suo codice per Copilot con riferimenti chiari a GPT-5, la Silicon Valley trattiene il fiato. Non perché ci si aspetti una rivoluzione improvvisa, ma perché ogni mossa in quella direzione svela frammenti di un piano ben più ampio: colonizzare lo spazio dell’intelligenza adattiva prima che altri competitor capiscano dove guardare. I nuovi indizi portano tutti nella stessa direzione: l’introduzione di una modalità “Smart” all’interno di Copilot, accanto alle già note Quick Response, Think Deeper e Deep Research. La differenza? Apparentemente minima. Sostanzialmente, un terremoto silenzioso.
Siamo nel mezzo di una rivoluzione silenziosa. Silenziosa, perché il cuore pulsante dell’IA generativa non si presenta con luci al neon né con robot danzanti, ma con righe di matematica impilate in architetture astratte che si chiamano transformer. Roba che sembra uscita da una riunione tra fisici teorici e stregoni digitali. Eppure sono loro a generare testi, creare immagini, scrivere codice, persino a far credere a qualcuno che un chatbot abbia una personalità. Transformers: non il film, ma la vera tecnologia che governa il nuovo ordine cognitivo.
