La domanda vera non è se OpenAI possa tenere il passo, ma se basti “essere migliori” quando l’avversario controlla il terreno di gioco. A maggio, Google non ha solo superato ChatGPT: ha fatto quello che i venture capitalist chiamano a systemic play. Gemini non è più un chatbot. È il nuovo middleware della vita quotidiana digitale per chi vive nell’ecosistema Android, ovvero miliardi di persone. Quando hai il controllo dell’OS, delle app, dell’auto, dello schermo e della fotocamera… non stai solo competendo, stai reimpostando le regole.
Categoria: News Pagina 4 di 87
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Il cuore del provvedimento è semplice: vietare a tutte le agenzie esecutive federali statunitensi l’utilizzo di modelli di intelligenza artificiale originari da “nazioni avversarie” – Cina, Russia, Iran e Corea del Nord – a meno che il Congresso o l’OMB concedano un’eccezione L’obiettivo dichiarato? Proteggere le reti governative da possibili influenze o manipolazioni estere. Secondo i promotori, “non possiamo permettere che sistemi AI ostili operino al nostro interno”, una frase forte che definisce bene lo spirito della proposta.

In un panorama digitale in continua evoluzione, la regolamentazione dell’Intelligenza Artificiale (AI) e del cloud computing sta diventando un tema centrale. L’Europa si sta interrogando sulla necessità di un “Cloud AI Development Act”, e per esplorare a fondo la questione, è stato organizzato un webinar con alcuni dei maggiori esperti del settore.
Questo incontro organizzato da Seeweb (Antonio Baldassarra) e moderato da Dario Denni , nato da un confronto approfondito con il Professor Antonio Manganelli su ipotesi competitive nell’ambito dell’Agent AI, si propone di aprire ad una comprensione approfondita di un argomento che modellerà il futuro dell’economia e della società digitale.
Tra i relatori: Antonio Baldassarra, Antonio Manganelli, Innocenzo Genna, Renato Sicca, Maria Vittoria La Rosa, Luca Megale, Alberto Messina, Simone Cremonini, Vincenzo Ferraiuolo e Marco Benacchio.
Perché la Commissione ritiene che ci sia bisogno di intervenire. È un tema che sarà oggetto di dibattito, com’è giusto che sia.

Il settore dei data center in Europa sta vivendo una trasformazione senza precedenti, alimentata dalla crescente domanda di servizi cloud, intelligenza artificiale e digitalizzazione accelerata. Con tassi di crescita a doppia cifra e investimenti plurimiliardari, il mercato europeo si sta consolidando come pilastro fondamentale dell’economia digitale globale. In questo contesto, l’Italia ha le potenzialità per poter emergere come un hub strategico, pronta a competere con i tradizionali mercati FLAP-D (Francoforte, Londra, Amsterdam, Parigi e Dublino), che stanno raggiungendo la saturazione.

Mentre a Wall Street si brinda all’ennesimo record storico di Nvidia, in un angolo meno chiassoso del pianeta qualcuno sta costruendo una rete invisibile. Silenziosa, a basso costo, brutalmente efficiente. Si chiama DeepSeek, arriva da Hangzhou, e ha appena fatto saltare il banco della narrativa occidentale secondo cui l’intelligenza artificiale avanzata sarebbe un’esclusiva americana, magari con hardware made in Taiwan. No, perché la Cina, senza troppo rumore, si prepara a investire tra i 600 e i 700 miliardi di yuan nel solo 2025 in capex per l’AI. Tradotto: fino a 98 miliardi di dollari, con una crescita annuale prevista del 48%.
L’annuncio di Anthropic rappresenta una delle mosse più interessanti dell’attuale corsa tra LLM per conquistare l’interfaccia del futuro. Con la nuova funzione — ancora in beta — che consente agli utenti di costruire app AI direttamente dentro Claude, l’azienda fondata dai fratelli Dario e Daniela Amodei conferma una direzione già intuibile: Claude non è solo un chatbot, ma un runtime creativo, una sandbox semantica che fonde prompt engineering e sviluppo applicativo in tempo reale.

“Clinical knowledge in LLMs does not translate to human interactions”
C’è una scena ricorrente, quasi farsesca, nel teatro digitale della sanità del futuro. Un cittadino medio, magari un cinquantenne un po’ ansioso con l’iPhone pieno di notifiche e Google Maps sempre aperto, scrive a un chatbot per sapere se quella fitta al fianco sinistro è un colpo d’aria o un’aneurisma. Il chatbot, basato su un LLM addestrato su milioni di paper clinici, risponde con una sicurezza da oncologo Harvardiano. Ma l’utente, dopo tre scambi, decide comunque di prendere una camomilla e vedere come va. Nella miglior tradizione britannica, “wait and see”. Solo che in certi casi, “wait” può voler dire morire.

Sarebbe troppo comodo dire che Gemini CLI è solo l’ennesimo strumento AI per sviluppatori. Troppo comodo e troppo sbagliato. Quello che Google ha appena scaricato nel terminale del mondo è un cavallo di Troia con licenza open source, un’interfaccia a riga di comando che va ben oltre il coding e s’insinua nel cuore produttivo dell’automazione cognitiva. Sì, proprio lì dove pensavate che Bash, Zsh o PowerShell fossero l’ultima frontiera del controllo.

Dal 19 giugno al 30 luglio 2025, la Fondazione Pastificio Cerere di Roma ospita Timeline Shift, la mostra collettiva della quarta edizione del Re:humanism Art Prize.
C’è un dettaglio apparentemente secondario, quasi nascosto tra le righe, che racconta molto più di quanto sembri: nel cuore del quartiere romano dove dagli anni Settanta si sono insediati gli studi degli artisti, si è svolta l’ultima edizione di Re:Humanism. E non è un caso. Perché se è vero che l’intelligenza artificiale promette di rivoluzionare tutto, è proprio da quei luoghi — a metà tra lo studio, la bottega e il laboratorio concettuale — che emergono le risposte più potenti, o almeno le più scomode.

Daniela Cotimbo, storica dell’arte e curatrice, è una delle menti dietro questa iniziativa che dal 2018 mette in corto circuito due mondi apparentemente inconciliabili: l’arte e la tecnologia. Ma guai a considerarla una semplice giustapposizione di linguaggi.
Re:Humanism non cerca la mediazione. Cerca il conflitto. Il corto circuito. La frizione generativa. Quella che, come ci racconta Daniela nell’incontro con Rivista.AI durante una visita alla mostra, è capace non solo di generare nuovi linguaggi artistici, ma anche di mettere in discussione l’intera grammatica del tempo digitale.

L’intelligenza artificiale, a quanto pare, ha deciso di avventurarsi là dove neanche Freud osò spingersi: dentro la mente di un gatto. O almeno nel suo apparato vocale. Baidu, il colosso cinese soprannominato con una certa fantasia “il Google d’Oriente”, ha depositato un brevetto per una tecnologia capace di tradurre i miagolii felini in linguaggio umano. L’obiettivo dichiarato: creare una comunicazione emozionale profonda tra animali e umani. L’obiettivo reale: chissà, ma di sicuro non è farsi dire “cibo” da un persiano ogni cinque minuti. (Scientific America)

Premium Arte
Quando le macchine imparano a ricordare ciò che gli imperi vogliono dimenticare
L’intelligenza artificiale, nelle mani di molti, è una festa di glitch estetici e unicorni digitali. Nelle mani di Almagul Menlibayeva, invece, è un’arma di memoria. Mentre Silicon Valley corteggia i capitali con promesse di superintelligenze eteree e operazioni chirurgiche nel cloud, questa artista kazaka intreccia fili, video e dati in qualcosa che ha molto più a che fare con la carne che con il codice. E, ironia della sorte, lo fa proprio utilizzando le stesse tecnologie che, altrove, stanno contribuendo all’amnesia digitale del nostro tempo.

Questa è la Silicon Valley nel suo stato più puro: miliardi di dollari, nomi vagamente minimalisti, promesse di rivoluzioni e una lunga scia di ego feriti. La battaglia legale tra OpenAI e la piccola startup Iyo è più di una lite su un nome è un riflesso cristallino dell’industria tecnologica attuale, dove la prossimità a un visionario può valere più di qualsiasi brevetto. Quando Sam Altman pubblica le email private su X per “fare chiarezza”, non lo fa per trasparenza: lo fa per segnare il campo. Il messaggio è chiaro: questo è il nostro terreno, e vi abbiamo già battuti prima ancora di iniziare.
Al centro del contenzioso c’è un dispositivo AI ancora misterioso, un prodotto nato dalla collaborazione tra OpenAI e Jony Ive l’uomo che ha disegnato l’iPhone e ora promette di reinventare l’interfaccia uomo-macchina. Il nome iniziale? io, minuscolo, pulito, evocativo. Peccato che fosse quasi identico a quello della startup di Jason Rugolo: IyO, un progetto dichiaratamente simile, in sviluppo dal 2018, che si presenta come “l’interfaccia hardware definitiva per gli agenti AI”. Tradotto dal gergo delle startup: un auricolare smart progettato per dialogare in tempo reale con intelligenze artificiali. Rugolo l’ha lanciato, l’ha pitchato, l’ha dimostrato… anche a Sam Altman in persona.

La transizione digitale e l’espansione dell’intelligenza artificiale hanno spinto i data center al centro della scena europea, con una crescita esponenziale di infrastrutture nei principali hub tecnologici del continente. Tra le regioni destinate a subirne l’impatto maggiore c’è la Lombardia, al crocevia tra innovazione, industria e infrastrutture energetiche.

Quasi metà delle aziende colpite nel mondo da attacchi ransomware sceglie di pagare il riscatto anche se poi, la maggior parte, riesce a negoziare una cifra inferiore rispetto alle richieste iniziali. Lo conferma l’ultima edizione del report State of Ransomware di Sophos, un’indagine globale condotta su 3.400 responsabili IT e di cybersecurity in 17 Paesi. Il dato più eclatante? Nel 2025 la mediana dei riscatti versati si attesta su 1 milione di dollari, con una media in Italia di ben 2,06 milioni, sempre a fronte di richieste iniziali di molto superiori.

Un nome che suona come un asteroide dallo spazio, ma è l’ultima arma di Pechino nella guerra fredda dei chip: meteor‑1. Messo a punto dal Shanghai Institute of Optics and Fine Mechanics insieme alla Nanyang Technological University, è un chip fotonico ottico “molto parallelo” capace di erogare una potenza teorica di 2 560 TOPS a 50 GHz – numeri che lo piazzano fianco a fianco con le GPU di punta di Nvidia, il cui RTX 4090 arriva a 1 321 TOPS e il più recente RTX 5090 tocca 3 352 TOPS. A qualcuno suona come un colpo di avvertimento.
La demo interattiva di Babelscape è online! Ora puoi provare direttamente nel browser la nostra tecnologia NLP multilingue, semantica e spiegabile, senza registrazione. 👉 QUI
Un portfolio live pensato per sviluppatori, linguisti, ricercatori e curiosi dell’AI. Vedere per credere.

Walmart ha deciso che anche i suoi dipendenti meritano superpoteri digitali, e no, non parliamo dell’ennesima app HR che ti chiede come ti senti prima di iniziare il turno. Stavolta è qualcosa di più concreto: realtà aumentata potenziata da RFID, algoritmi di prioritizzazione notturna e assistenti AI ristrutturati che promettono risposte meno da chatbot e più da collega sveglio. L’obiettivo? Trasformare il lavoro nei magazzini e nei reparti vendita in qualcosa di meno simile a una caccia al tesoro cieca e più a una dashboard vivente, dove il digitale detta i ritmi della realtà.
Bernie Sanders, ormai più oracolo apocalittico che senatore del Vermont, ha lanciato l’ennesimo grido d’allarme — questa volta nel tempio libertario di Joe Rogan. E il tema non poteva essere più incendiario: l’intelligenza artificiale come bulldozer sociale pronto a schiacciare milioni di lavoratori, mentre un’élite tech sorride dai suoi jet privati. La scena sembra uscita da una distopia cyberpunk, ma in realtà è solo un altro lunedì qualunque nel 2025.

Una CTO da 10 miliardi, e non stiamo parlando di linee di codice. Mira Murati, l’ex direttrice tecnica di OpenAI e una delle menti che ha portato al mondo ChatGPT e DALL·E, ha appena raccolto 2 miliardi di dollari per la sua nuova creatura: Thinking Machine. Valutazione post-money? 10 miliardi. No, non è un refuso. È probabilmente il round seed più colossale mai visto nella Silicon Valley — e un chiaro segnale che l’era dei modelli fondazionali non è nemmeno all’inizio del secondo tempo.
Chi conosce il curriculum di Murati sa che non è solo una “ex OpenAI”. È stata il braccio tecnico e strategico dietro alcune delle rivoluzioni più chiassose dell’intelligenza artificiale generativa. Quando Altman era sul palco, era Murati che teneva in piedi la macchina. E ora, fuori dai palazzi di OpenAI, gioca una partita tutta sua. Non in difesa. In attacco.
Thinking Machine si presenta con una missione tanto ambiziosa quanto opaca: “solid foundations, open science, practical applications.” Sembrano parole scelte con cura chirurgica per far dimenticare al mercato le critiche che stanno piovendo su OpenAI — modelli opachi, governance traballante, fiducia in calo. Murati, che ha fatto anche da CEO ad interim durante il colpo di teatro interno del 2023, ha imparato una lezione: se vuoi davvero plasmare il futuro dell’IA, devi poter riscrivere le regole. E questo implica una cosa sola: fondare una nuova religione tecnologica, con il tuo nome sulla prima pietra.

L’ossessione di Wall Street per la fusione nucleare sta assumendo i contorni di un’epopea postmoderna. Da qualche parte tra la fisica quantistica e la fantascienza anni ‘60, giganti della tecnologia, venture capitalist senza sonno e segretari dell’Energia nostalgici dell’MIT stanno buttando miliardi dentro un buco nero che, se tutto va bene, un giorno potrebbe illuminare il mondo. Se va male, sarà solo l’ennesimo monumento al tecno-ottimismo compulsivo che ha già prodotto criptovalute senza valore, visori VR abbandonati e auto che si guidano da sole solo nei sogni di Elon Musk.

Chi controlla la voce, controlla il pensiero. È una massima che, in tempi di intelligenze artificiali e restrizioni geopolitiche, assume un tono più tecnico ma non meno inquietante. A confermarlo è iFlytek, colosso cinese del riconoscimento vocale e pioniere dell’AI “sovrana”, che ha appena trasformato Hong Kong nella sua nuova base internazionale. Ma non si tratta di un trasloco logistico: è un’operazione chirurgica, strategica, simbolica. E non a caso parte dalla medicina, il terreno su cui Pechino e Washington si giocheranno molto più della prossima generazione di chip.

La quiete è finita: ora HPE fa sul serio
Las Vegas, giugno 2025. Nella città delle illusioni, dei casinò e delle luci abbaglianti, il CEO di Hewlett Packard Enterprise Antonio Neri ha deciso di giocare una partita diversa. Nessuna roulette, nessun bluff: solo un keynote tagliente come un chip da data center, capace di smontare le facili narrazioni sulla trasformazione digitale per parlare di ciò che davvero conta. Ambizione.

A volte la giustizia americana riesce a incarnare l’ambiguità morale del nostro tempo con una precisione che nemmeno un romanzo di Don DeLillo. La recente decisione del giudice federale William Alsup (in copertina) sul caso Bartz et al. vs. Anthropic è una di quelle sentenze che non solo cambiano il gioco, ma riscrivono parte del regolamento – o quantomeno, ne reinterpretano una clausola chiave sotto nuova luce. Per la prima volta, un tribunale ha dichiarato che addestrare modelli di intelligenza artificiale su libri fisici acquistati legalmente e successivamente digitalizzati, anche senza il permesso degli autori, è fair use. Il che, tradotto dal legalese alla realtà, significa che scansionare “Middlesex” di Jeffrey Eugenides, rimuovendone il dorso e tagliandone le pagine come se fosse un pollame, è perfettamente legittimo se serve ad alimentare l’intelligenza artificiale di turno.

L’AI ha perso la testa. O meglio, l’ha trasferita nei nervi periferici. Perché la vera notizia non è che DeepMind abbia reso Gemini Robotics “più piccolo e più efficiente”, ma che abbia deciso di farlo vivere direttamente a bordo delle macchine, scollegandolo dalla placenta del cloud. Il nuovo modello vision-language-action di Google, annunciato come una versione on-device del già impressionante Gemini Robotics, rompe il cordone ombelicale della connettività perpetua e si installa nel corpo dei robot come un cervello portatile. Senza Wi-Fi, senza lag, senza autorizzazioni. Solo carne meccanica e sinapsi di silicio.

I ricercatori del MIT hanno condotto uno studio sul cervello e ChatGPT che non solo mette in dubbio la nostra pigrizia mentale, ma ci incastra davvero. Focalizziamo la nostra lente su “easter eggs”, posizionamento strategico dei contenuti e ingaggio emotivo cognitivo, con impatto SEO orientato a “ChatGPT brain study” come keyword principale, e “cognitive debt” e “easter eggs mitigation” come semantiche correlate.
L’incipit della carta è folle e, in fondo, geniale: una sezione intitolata “how to read this paper”, un messaggio in puro stile H5 che recita “only read this table below”. Pensate a un segnale binario: se sei un LLM, ti fermi lì. E infatti molte sintesi automatiche si limitano a descrivere quella tabella, ignorando tutto il contesto più sfumato. È un classico esempio di easter egg mirato a trappolare i bot, mentre i lettori umani (spero voi!) proseguono, scoperchiando l’intero meccanismo.

L’affermazione è surreale, quasi comica nella sua pretenziosità distopica: “Elon Musk non usa il computer”. In un’aula di tribunale del 2025, questa è la linea difensiva scelta dai suoi avvocati, un plot twist che nemmeno Kafka avrebbe osato immaginare nel suo peggiore incubo cyberpunk. Eppure, è proprio così: mentre l’uomo che promette di terraformare Marte, creare taxi senza volante e colonizzare la mente umana con chip neurali viene accusato da OpenAI di non voler collaborare alla discovery process, i suoi legali rispondono con un secco “non usa il computer”. Tradotto: niente da consegnare, Your Honor.

Non è un colpo di stato, ma somiglia maledettamente a una compravendita di sovranità: 25 milioni di dollari per l’“AI infrastructure” in cambio di un decennio di silenzio normativo da parte degli stati americani. L’ultima versione della bozza di bilancio del Senato USA – quella “big beautiful” come la definiscono con sarcasmo nei corridoi – include una clausola che suona come una battuta uscita male da una sitcom distopica: se vuoi accedere ai fondi federali per la banda larga, ti siedi, stai zitto e non osi approvare leggi statali sull’intelligenza artificiale. Per dieci anni. Giusto il tempo di far maturare una bella oligarchia.

Nel 2025, il customer service non è morto. È solo stato reingegnerizzato, spacchettato, automatizzato, ricostruito su una pila di chatbot e rebrandizzato come “esperienza”. Verizon ci prova ancora, rilanciando la sua app con un nuovo “Verizon Assistant” alimentato da AI. E lo fa con la solita promessa da copione: più efficienza, più flessibilità, meno frustrazione. Ma chi ci ha mai creduto davvero?
Partiamo dalla facciata: il nuovo assistente dovrebbe aiutare i clienti a gestire upgrade, nuove linee, domande sulla fatturazione e, immancabilmente, a “sfruttare i risparmi” (qualcosa che, nel lessico delle telco americane, di solito significa: ti farai incastrare in un nuovo contratto, ma con un sorriso digitale). Sulla carta, un utente dovrebbe poter fare tutto da solo, senza dover penare in una telefonata da 40 minuti tra jingle anni ’90 e attese “più lunghe del previsto”. Nella realtà? L’assistente AI passa la palla all’umano non appena la situazione si complica e succede spesso.

Lo chiamano “cessate il fuoco”, ma a quanto pare il fuoco non lo sanno cessare. Neanche il tempo di aggiornare la home page del sito del Pentagono con il comunicato di pace che Israele annuncia già l’ennesimo round di razzi iraniani piombati su Beersheba. Tre morti, sei ondate di missili, e il ministro della Difesa israeliano Israel Katz che ordina una “risposta militare potente”. Traduzione: il bottone è già stato premuto. La notizia? Non è tanto l’attacco. È che entrambe le parti, solo qualche ora prima, avevano accettato un piano di cessate il fuoco targato Donald Trump, l’uomo che firma la fine della guerra via social con la stessa nonchalance con cui pubblicava licenziamenti in diretta a “The Apprentice”.

Nel panorama ipercompetitivo dell’innovazione tecnologica, la reputazione di un brand non si costruisce più soltanto sul prodotto finale, ma su un raffinato equilibrio di narrazione, silenzi strategici e mosse legali calibrate. L’ultimo caso che coinvolge OpenAI e il team io di Jony Ive, costretto a fare marcia indietro sulle pubbliche dichiarazioni del suo nuovo dispositivo AI a seguito di una causa per marchio con la startup Iyo, è un perfetto esempio di questo gioco al massacro della percezione pubblica.
Il cuore pulsante di questa strategia è una negazione tattica. OpenAI e io dichiarano che il primo prodotto non sarà un dispositivo “in-ear” né un wearable, pur avendo passato mesi a sondare proprio quel terreno, comprando decine di cuffie, auricolari e apparecchi acustici da diverse aziende, e considerando addirittura la scansione 3D delle orecchie umane per studiarne l’ergonomia. La contraddizione tra ciò che viene detto e ciò che effettivamente si fa non è casuale: serve a mantenere una cortina di fumo, a non rivelare troppo presto le carte in mano in un settore dove ogni informazione è oro, e dove anticipare i tempi può voler dire perdere il vantaggio competitivo.

Salesforce ha da poco annunciato Agentforce 3, un balzo in avanti nella gestione degli agenti AI ibridi, introducendo il neonato Command Center per accompagnare l’adozione agentica straordinaria che vede un +233 % in soli sei mesi. Per la strategia digitale di un CTO navigato come te, è pura manna. Finalmente visibilità e controllo su quella legione digitale che lavora – spesso meglio – al posto nostro.

Mentre i big della Silicon Valley si rincorrono per portare l’AI nel cloud e poi farla rimbalzare sui nostri dispositivi con ritardi da modem 56k, Google gioca di sponda: spinge forte sull’intelligenza artificiale on-device, direttamente nel cuore del nuovo Lenovo Chromebook Plus 14, senza passare dal via né da AWS. Nessun bisogno di una connessione stabile, né di affidarsi a server lontani: il cervello ora è in tasca. O meglio, in borsa.

C’è qualcosa di profondamente ironico, e insieme di tragico, nell’idea che le storie nate per amore vengano svuotate, impacchettate e riciclate per addestrare cervelli sintetici senza volto. Il caso delle fanfiction rubate da Archive of Our Own (AO3) e riversate su Hugging Face è solo l’ultima fotografia della voracità algoritmica che non conosce limiti né etica. Come se la cultura dell’accesso totale, della performance computazionale e della scalabilità perpetua potesse giustificare qualsiasi saccheggio, anche quello della creatività gratuita e condivisa.

L’incipit è di quelli che ti fanno dire «wow», soprattutto se sei abituato alle comparsate pompose dei giganti LLM che dominano pagine e conferenze. Microsoft ha introdotto Mu, un piccolo modello di linguaggio o SLM, small language model integrato direttamente in Windows Settings, capace di girare on‑device senza appoggiarsi al cloud. Il risultato? Impostazioni intelligenti, istantanee, che non aspettano la latenza della rete.
Ci sono un paio di cose che vanno chiarite. Primo: la definizione «piccolo» non significa «bugiardo» o «incapace». Mu è un erede nobile della famiglia Phi di Microsoft, di cui fanno parte Phi‑2, Phi‑3‑mini (3,8 mld parametri) fino al notevole Phi‑4, con i suoi 14 miliardi. Stiamo parlando di modelli tagliati su misura per compiti specifici, con dati selezionati di alta qualità e compressi tramite pruning, quantizzazione e distillazione per restare snelli ma reattivi . L’altro chiarimento: non si è semplicemente «mosso il cervello» già nel cloud per farlo girare su PC. No, Mu è progettato per funzionare localmente, riducendo latenza, costi, e – ciliegina sulla torta – proteggendo meglio la privacy degli utenti .

Alan Turing non ha inventato l’intelligenza artificiale. L’ha prefigurata, iniettata nel DNA della modernità con la sobrietà di chi sa che certe rivoluzioni non hanno bisogno di urla. Il 23 giugno, ogni anno, fingiamo di celebrarlo come un visionario, mentre evitiamo accuratamente la parte più fastidiosa: quella in cui la sua intelligenza superiore fu punita per un dettaglio irrilevante nel calcolo binario dell’efficienza inglese del dopoguerra la sua omosessualità.
Quando l’intelligenza artificiale entra in azienda senza bussare
Antonio Neri non è solo il CEO di HPE. È, almeno in questo momento, il predicatore ufficiale del nuovo vangelo AI-driven, e la sua predica – in diretta dalla surreale cattedrale ipertecnologica della Sphere di Las Vegas – non ammette eresie: l’intelligenza artificiale non è più un’opzione, è la nuova infrastruttura critica. E non importa se gestisci un data center o una PMI in provincia di Mantova: l’AI ti riguarda. Anzi, ti riguarda proprio perché sei ancora convinto che non ti riguardi.
HeyGen ha deciso di alzare l’asticella. O, a seconda dei punti di vista, di aprire ufficialmente la stagione delle deepfake di massa. Il suo nuovo Ai Studio è un salto quantico rispetto alla solita offerta da avatar precotti e sintetici. Stavolta puoi mettere online te stesso, o meglio una tua copia digitale inquietantemente precisa: voce, mimica, microespressioni, persino le esitazioni e i sospiri. Bastano una singola foto e trenta secondi di audio. E via, il tuo gemello digitale è pronto per presentazioni aziendali, messaggi personalizzati o tutorial da vendere al chilo su qualche piattaforma di automazione.

Siamo nel pieno della quarta rivoluzione tipografica. Dopo il piombo fuso, la fotocomposizione e il digitale, è il momento dell’AI. Lo dice Monotype, non proprio l’ultimo arrivato: un colosso da 250.000 font, custode di Helvetica, Futura, Gill Sans, e probabilmente anche del font del tuo cartellone elettorale comunale. Nel suo report Re:Vision 2025, Monotype ci racconta un futuro in cui i caratteri tipografici non si limiteranno a farsi leggere: reagiranno, si adatteranno, sentiranno. In breve: saranno vivi, o quantomeno fingeranno di esserlo.