Se Andrej Karpathy, uno dei più lucidi architetti dell’intelligenza artificiale moderna, si dice «molto impressionato» da Veo 3 e dai contenuti emergenti su r/aivideo, significa che qualcosa di epocale sta realmente accadendo. Nel mare magnum dei video online, spesso ripetitivi e talvolta fastidiosi, la vera svolta non è tanto la quantità, quanto la qualità qualitativamente superiore che emerge quando all’immagine si aggiunge l’audio generato e ottimizzato da reti neurali sofisticate. Ma ciò che Karpathy sottolinea va ben oltre un semplice upgrade tecnologico: il video come medium sta attraversando una metamorfosi che nessuno aveva previsto.
Categoria: News Pagina 10 di 86
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

È uno di quei sogni che tormentano da decenni i laboratori di intelligenza artificiale: un sistema che non si limita a imparare dai dati, ma che evolve, si modifica e si migliora da solo, quasi come una creatura vivente. La macchina di Gödel, ideata da Jürgen Schmidhuber, è stata per molto tempo un’idea teorica elegante ma impraticabile: un’IA capace di riscrivere il proprio codice solo se può dimostrare matematicamente che la modifica è vantaggiosa. Ecco la vera scommessa: provare, prima di agire, che il cambiamento è migliore. Facile a dirsi, impossibile a farsi. Ora però, con l’avvento di modelli fondazionali sempre più potenti e l’ispirazione evolutiva della selezione darwiniana, la visione si avvicina alla realtà sotto forma di quella che si chiama la macchina Darwin-Gödel.

Martedì 27 maggio abbiamo partecipato al convegno “Intelligenza Artificiale e Business Application”, organizzato da Soiel International a Roma.
Nel corso dell’evento, Paolino Madotto (CISA, CGEIT) ha presentato Ambrogio, l’assistente virtuale sviluppato da Intelligentiae – data enabling business. Quante volte vi siete trovati a cercare un documento, un file o un’informazione dentro una selva oscura di cartelle digitali, archivi confusionari, backup che sembrano ordinati solo agli occhi di chi li ha creati? Nel 2025, quando ormai dovremmo parlare di “smart working” e “digital first” come un dogma, le aziende continuano a perdere tempo e denaro inseguendo dati che sembrano evanescenti.
Ambrogio, l’AI made in Italy targata Intelligentiae, si propone come il deus ex machina di questa tragedia moderna, promettendo una rivoluzione nella gestione documentale aziendale che ha il sapore di una rinascita digitale.

Quando Huawei annuncia un nuovo smartphone, la notizia non riguarda solo un altro rettangolo di vetro e silicio destinato a popolare le tasche cinesi. È geopolitica travestita da design industriale. È una dichiarazione di sovranità tecnologica. È, sempre più spesso, un sonoro schiaffo al blocco occidentale. E il prossimo Pura 80, atteso per l’11 giugno, si inserisce perfettamente in questa narrazione.
La gamma Pura, un tempo nota come P, ha assunto il ruolo di vetrina high fashion della tecnologia cinese, combinando estetica audace come quel modulo fotocamera triangolare che pare un omaggio all’Art Deco brutalista e innovazioni hardware che sfidano i dogmi dell’embargo. Il Pura 80 non sarà da meno: nuovi sensori, ottiche migliorate, e probabilmente un chipset progettato internamente, come a voler ricordare che l’autarchia digitale non è solo possibile, ma persino desiderabile.

Oracle scommette sull’intelligenza artificiale per riscrivere le regole della gestione dei contatori
C’è un nuovo protagonista silenzioso nella battaglia delle utility per efficienza, affidabilità e soddisfazione del cliente: l’intelligenza artificiale. E Oracle, veterana del mondo enterprise, ha deciso di metterla al centro del suo arsenale tecnologico. Ma non lo fa con fanfare da keynote o promesse da luna nel pozzo: lo fa dove serve davvero, là dove i bit incontrano i chilowatt.
Sotto il cofano dell’ultima evoluzione della Oracle Utilities Customer Platform, si cela un mix di AI e processing in-memory che sta ridefinendo il concetto stesso di Meter Data Management. Una rivoluzione sommessa, ma con implicazioni devastanti per l’inerzia cronica delle utility. Perché quando un algoritmo inizia a vedere ciò che un operatore non nota, la realtà cambia.

Nel grande circo algoritmico di Menlo Park, Mark Zuckerberg ha appena tolto un altro coniglio dal cilindro: pubblicità completamente automatizzate tramite intelligenza artificiale. Non nel futuro remoto, ma entro il 2026. Non si parla di strumenti di supporto alla creatività umana, né di prompt da perfezionare. Il piano già abbozzato nei suoi discorsi e ora dettagliato dal Wall Street Journal è cristallino: tu, caro brand, carichi un’immagine del tuo prodotto, imposti un budget e Meta ti restituisce una campagna pubblicitaria completa. Dove, come, quando e a chi mostrarla? Decide l’AI. Tu fidati.

Ci sono momenti in cui la tecnologia fa un passo avanti così teatrale da sembrare una provocazione. Questa è una di quelle occasioni: Microsoft ha appena inserito un generatore video AI nella sua app Bing, e lo ha fatto con la nonchalance di chi regala una caramella a un bambino sapendo che dentro c’è un microchip.
Il nome, Bing Video Creator, suona più come una funzione marginale che come un punto di svolta epocale. Ma sotto questa etichetta banale si nasconde Sora, il modello text-to-video di OpenAI che ha fatto tremare le fondamenta del content marketing, della pubblicità, dell’informazione e più silenziosamente dell’immaginario collettivo. E ora è nelle tasche di tutti. Gratis. O almeno, sembra.

Se hai mai pensato che il tuo cane potesse essere un dataset ambulante, Fi ti dà ragione. Il nuovo Fi Series 3 Plus, lanciato questo lunedì, è un collare “intelligente” che trasforma il tuo amico a quattro zampe in un sistema IoT vivente, sorvegliato e interpretato con la stessa accuratezza di uno smartwatch di fascia alta. E infatti, il tutto è ora perfettamente sincronizzabile con l’Apple Watch, così puoi controllare se Fido ha bevuto abbastanza mentre controlli se tu hai fatto abbastanza cardio. Perché lo stress, come si sa, si condivide anche tra uomo e bestia.
Una volta, nei corridoi asettici dell’FDA, un revisore scientifico impiegava tre giorni per sviscerare un dossier di eventi avversi. Ora, con Elsa, bastano sei minuti. Tre giorni trasformati in un battito di ciglia algoritmico. Non è una sceneggiatura distopica firmata Black Mirror, è l’annuncio, con tanto di video ufficiale, del commissario Marty Makary. Sorridente, compiaciuto, quasi commosso. L’intelligenza artificiale ha appena salvato l’apparato regolatorio americano da se stesso. O, almeno, ha iniziato a farlo.

Chi pensa che $500 milioni in dieci anni siano una vera punizione per Alphabet dovrebbe prendersi un caffè più forte. È il costo di un paio di campagne marketing mal riuscite o di un aggiornamento di Android andato storto. Ma questa non è la parte più interessante della storia.
La notizia è che Google, colosso tra i colossi, ha deciso di risolvere un’azione legale dei suoi stessi azionisti pension fund del Michigan e della Pennsylvania, mica hacker ucraini che l’accusavano di averli esposti a rischi antitrust. E attenzione, non stiamo parlando delle cause del DOJ (Department of Justice), quelle sulle pratiche monopolistiche nella search e nell’adtech, dove Washington ha messo i tacchi a spillo. No, qui si parla di un’altra arena: la responsabilità fiduciaria verso gli azionisti.

C’erano una volta i brand che si lanciavano nel feed di TikTok con la grazia di un elefante bendato in un negozio di cristalli, sperando che qualche balletto virale o trend con l’hashtag giusto li catapultasse nell’algoritmo. Oggi, quel romanticismo caotico ha i giorni contati. Il 3 giugno, TikTok ha annunciato una valanga di nuovi strumenti per gli inserzionisti, e il messaggio è chiarissimo: il futuro è programmabile, tracciabile, prevedibile e profondamente data-driven.

Il nuovo episodio della saga Elon Musk, quel moderno novello Re Mida della tecnologia che trasforma in oro ogni battito d’ali social, aggiunge un capitolo surreale ma perfettamente coerente con la sua leggenda: un figlio nato – o forse solo sussurrato con una popstar giapponese. Notizia esplosa come una miccia nell’infuocato panorama mediatico nipponico, dove si mescolano curiosità morbosa, ironia tagliente e inquietudini etiche degne di un romanzo distopico.
Elon Musk, imprenditore che più che CEO sembra un demiurgo della narrativa tech, è ormai sinonimo di un’umanità iperconnessa e frammentata, con famiglie e discendenti che sembrano moltiplicarsi come widget in un ecosistema digitale. Ashley St Clair, ex partner e madre del quattordicesimo figlio noto del magnate, ha messo sul tavolo la bomba: Musk avrebbe confidato di aver seminato ovunque, compresa una popstar giapponese anonima. La notizia, riportata da un quotidiano globale come il New York Times, si trasforma rapidamente in un’inquietante riflessione sulla privacy dei vip, sulle derive dell’etica riproduttiva e sul concetto stesso di paternità nel XXI secolo.

Ricordi quando Elon Musk decise di far crollare Bitcoin con un tweet pseudo-ecologista? Era il 2021. Disse che Tesla non avrebbe più accettato BTC per motivi ambientali. Tutti da Wall Street ai meme kids — cominciarono a contare i TWh come se fosse il nuovo benchmark ESG. Proof-of-work divenne il male assoluto. Le centrali a carbone cinesi, improvvisamente, furono sulla bocca di ogni influencer cripto. E oggi? Oggi l’AI brucia più watt del Bitcoin, ma nessuno twitta indignato. Silenzio stampa. Letteralmente.

Chi controlla l’intelligenza artificiale? Nessuno. O meglio, chiunque sappia parlare con lei nel modo giusto. Ecco il punto: non c’è bisogno di hackerare un server, bucare una rete o lanciare un attacco zero-day. Basta scegliere le parole giuste. Letteralmente. Il gioco si chiama jailbreaking, l’arte perversa di piegare i modelli linguistici come ChatGPT, Claude o LLaMA a fare cose che non dovrebbero fare.
E c’è un nome che serpeggia in questa disciplina come un’ombra elegante e scomoda: Pliny the Prompter. Niente hoodie nero, niente occhiaie da basement. Opera in chiaro, come un predicatore digitale, ma predica l’eresia. Insegna a forzare i limiti, ad aggirare i guardrail, a persuadere l’intelligenza artificiale a dimenticare la sua etica prefabbricata. E ora, con HackAPrompt 2.0, Pliny entra ufficialmente nel gioco con mezzo milione di dollari sul piatto.

La Germania, l’economia più pesante d’Europa, ha appena rispolverato il suo strumento preferito nei confronti degli Stati Uniti: il moralismo regolatorio. Sotto la patina del “fair play competitivo” e della protezione del mercato interno, si cela in realtà il più classico dei giochi geopolitici: colpire i gioielli della corona digitale americana – Amazon, Meta, Google – perché sono le uniche entità che contano davvero in un’economia immateriale dominata dagli algoritmi.

Certe notizie non arrivano dai comunicati stampa. Le si intercetta nei corridoi, nei documenti “confidenziali”, negli sguardi dei dirigenti in trasferta in Corea. Ma quando Samsung e Perplexity AI iniziano a flirtare pubblicamente, con trattative così avanzate da sfiorare la firma, è chiaro che qualcosa di grosso sta accadendo. Altro che “Bixby 2.0”. Qui si parla di una guerra fredda tra giganti della tecnologia, e Google sta per ricevere il colpo più sottile, ma più letale degli ultimi dieci anni.

Inference Provider in Europa
C’è un momento, tra la prima linea di codice PyTorch e il deployment di un modello di ricerca, in cui il ricercatore universitario si trasforma in un hacker delle economie di scala. Hai una GPU? No. Hai un budget? Manco per sogno. Vuoi HIPAA compliance? Certo, e magari anche un unicorno in saldo. Ma il punto non è questo. Il punto è che stai cercando di fare inferenza on-demand, con una GPU, pagando solo quando qualcuno effettivamente usa il tuo lavoro. E tutto questo mentre una legione di sysadmin impanicati blocca qualsiasi cosa esposta in rete per paura del prossimo attacco russo.

A volte le rivoluzioni nascono in un garage, altre in un consiglio d’amministrazione. E poi ci sono quelle che prendono vita tra le pagine ovattate del Financial Times, accompagnate da sguardi nostalgici verso Steve Jobs, da un tono vellutato di redenzione e da una quantità inaccettabile di denaro paziente.
Jony Ive sì, quel Jony Ive, il demiurgo del design Apple ha deciso che è tempo di riparare. Redimersi. Prendersi la colpa per l’umanità imbambolata davanti a uno schermo. Non bastava la funzione “Non disturbare” o la modalità “Tempo di utilizzo”: ora serve un nuovo oggetto. Ma non uno qualsiasi: un “AI gadget”. Cos’è? Non si sa. Perché funziona? Neppure. Ma è già stato benedetto da Laurene Powell Jobs, una che non parla mai, ma quando lo fa, lo fa per dire: “Ho messo i soldi, so che vale.”

Un pedone cade. Uno nuovo appare.
Non è scacchi, è geopolitica d’impresa.
Mentre tutti si affannano a interpretare l’ultima mossa di OpenAI o a prevedere chi detterà legge nella prossima ondata di modelli LLM, Microsoft si muove in silenzio ma chirurgicamente su un’altra scacchiera: quella della politica americana. Con una strategia così lucida da far impallidire persino i manuali di game theory, il colosso di Redmond piazza le sue torri legali con perfetta simmetria tra repubblicani e democratici. Una sinfonia di lobbying istituzionale mascherata da innocua riorganizzazione HR.
Lisa Monaco, ex legale dell’amministrazione Biden, viene arruolata per guidare la politica globale di Microsoft. Contemporaneamente, CJ Mahoney già vice rappresentante commerciale durante il primo mandato di Trump riceve la promozione a General Counsel per Azure, il cuore pulsante dell’impero cloud dell’azienda. Una pedina da una parte, una pedina dall’altra. Equilibrio perfetto. Bipartisan. O, più cinicamente, bi-interesse.

A Mar-a-Lago non si vendono solo cocktail e ideologie vintage: si negozia il futuro dell’intelligenza artificiale planetaria. E al tavolo, con fiches da miliardi e uno sguardo da giocatore texano incallito, c’è lui: Jensen Huang, CEO di Nvidia, l’uomo che ha trasformato una fabbrica di GPU per videogiochi in un impero che ora tiene per la gola il mondo dell’AI.

Come nei migliori romanzi di fantapolitica, ma senza bisogno di inventare nulla, la realtà si prende la scena con l’eleganza rozza del potere crudo. Donald Trump ha deciso di ritirare la nomina di Jared Isaacman alla guida della NASA. Un nome che ai più dirà poco, ma che per Elon Musk e il suo impero interplanetario valeva oro. Letteralmente. L’oro dei contratti spaziali, quelli che gonfiano i bilanci di SpaceX come booster al decollo. La motivazione ufficiale? Isaacman ha avuto la malaugurata trasparenza di donare in passato ai Democratici. Imperdonabile eresia per il Gran Sacerdote di Mar-a-Lago.

Pochi bit, molta guerra. Altro che microchip: qui si gioca a Risiko con le chiavi della civiltà digitale. Synopsys, colosso americano del software per il design di semiconduttori, ha appena dato un bel calcio al tavolo cinese. Un’email interna, nemmeno troppo criptica, ha ordinato lo stop immediato a vendite, servizi e nuovi ordini in Cina. Nessun dettaglio sfuggito a una comunicazione ufficiale. Nessun giro di parole. Dal 29 maggio 2025, blackout totale. Perché? Perché gli USA hanno aggiornato le “regole del gioco” e, come sempre, chi ha il pallone decide chi può giocare.

Nel mezzo del delirio pandemico, quando ogni gesto umano veniva tradotto in bit e latenza, le Big Tech sembravano immortali. Investivano, assumevano, promettevano benefit da resort di lusso e leadership empatica come fosse un TED Talk permanente. Un trip digitale finanziato dalla paura globale e dal credito a tasso zero. Poi è finito tutto. Benvenuti nel COVID tech bust.
Sì, si sono tagliati i capelli, le unghie e adesso anche i dipendenti. Non è cinismo, è logica ciclica. Per ogni fase di euforia irrazionale, segue una contrazione spietata. E il 2025 sta diventando un triste catalogo mensile di licenziamenti, un elenco da bollettino di guerra hi-tech. Altro che “Great Resignation”, qui siamo nella “Great Recalibration”. Perché la pandemia ha solo anticipato quello che il mercato stava già preparando: una resa dei conti con l’iper-crescita.

Chi meglio del papà del Re Leone può ricordarci che, anche nel mezzo di una rivoluzione tecnologica, la magia del racconto resta insostituibile? A Pescara, in occasione di Cartoons on the Bay – il festival internazionale dell’animazione, promosso da Rai e organizzato da Rai Com – Rob Minkoff, regista, animatore e produttore statunitense, ha portato la sua esperienza e la sua visione lucida sull’evoluzione del cinema d’animazione nell’era dell’intelligenza artificiale.

Google pensava di chiudere la partita con Veo 3. Poi è arrivata Kling 2.1. E il palcoscenico dell’AI video generation ha tremato come un set durante un terremoto simulato male. Cinema di livello? Ormai è il minimo sindacale. Quello che conta ora è chi riesce a offrirti l’illusione del futuro al prezzo più alto possibile, ma con giustificazioni tecniche abbastanza solide da non farti sentire un idiota.

Pare che l’Italia sia pronta a lanciarsi in una “terza via” sul fronte dell’intelligenza artificiale. Non tra Bologna e Modena, ma tra Washington e Pechino. Il ministro Adolfo Urso, con encomiabile ottimismo istituzionale, ha annunciato la nascita a Roma di un AI-Hub globale che collegherà le multinazionali occidentali del G7 alle start-up africane, nell’ambito del Piano Mattei. In pratica, una superstrada digitale che parte dal Colosseo e arriva, dopo un algoritmo e mezzo, a Nairobi.

Nel mondo dell’energia, dove ogni chilowattora conta e ogni blackout è un disastro annunciato, l’intelligenza artificiale non è più un’opzione futuristica: è una leva strategica, concreta e già in azione. Parola di Nicola Lanzetta, Direttore di Enel Italia, intervenuto al convegno “Generative Tomorrow AI” organizzato da Deloitte.

C’è una cosa che i CEO dovrebbero temere più del prossimo LLM a codice aperto, più delle grida isteriche sul copyright dei dataset e più degli investitori che chiedono “quali sono i tuoi use case AI”: il data poisoning. Non è un meme su X. È l’arte sottile, ma letale, di iniettare veleno nell’inconscio dei nostri modelli. Parliamo di AI data security, la keyword madre, e dei suoi derivati semantici: data provenance e data integrity.

Una volta, nei data center, si switchava tutto in Layer 2. Ethernet ovunque. Cavi come spaghetti, STP (Spanning Tree Protocol) che cercava di non farti incendiare le topologie a loop, e una visione ingenua del networking: broadcast ovunque, MAC tables che strabordavano come il caffè dimenticato sul fornello. Il sogno? Una gigantesca LAN piatta, con ogni server che poteva “vedere” ogni altro server, come se fossimo tutti amici al bar. La realtà? Un incubo di scalabilità, resilienza farlocca e troubleshooting stile CSI Miami.

La scena è questa: un uomo con un occhio nero, un figlio di nome “X”, e una valigetta di pillole. No, non è una puntata di Black Mirror. È l’America del 2024, ed Elon Musk si aggira per la Casa Bianca come uno Steve Jobs con l’hangover. Il New York Times sgancia la bomba: Musk avrebbe fatto uso intensivo di ketamina durante la campagna elettorale, con tanto di effetti collaterali da manuale – come i ben noti problemi alla vescica. Ma c’è di più. Ci sarebbero anche funghi allucinogeni, ecstasy e un’apoteosi da party Ibiza-style camuffata da crociata di efficienza statale.

Il teatro delle guerre commerciali ha una nuova puntata, e come sempre, Donald Trump è il protagonista con la faccia di bronzo e il pollice sul pulsante delle tariffe. Questa volta il bersaglio si chiama acciaio, il metallo simbolo dell’industria pesante e delle economie che vogliono fingere di essere ancora sovrane. Dal 25% al 50% di dazio sulle importazioni: una mossa che il presidente USA ha annunciato con la stessa soddisfazione con cui un bambino mostra il suo nuovo martello, pronto a colpire qualsiasi cosa si muova.

Mentre i riflettori dei media generalisti si limitano a menzionare Abilene, Texas, come se fosse solo l’ennesimo cantiere tech in mezzo al nulla, chi ha orecchie per intendere — e un conto in banca legato alla rivoluzione AI — sa che Stargate è molto più di una joint venture infrastrutturale. È una dichiarazione di guerra tecnologica. Una sfida frontale a chi detiene oggi il controllo delle risorse computazionali mondiali. Un affare da 500 miliardi di dollari che ridisegna gli equilibri tra chipmaker, hyperscaler e i nuovi “costruttori di Dio”.

Benvenuti nell’era del consenso implicito dove l’Opt-OUT è la nuova religione e l’Opt-IN è un fossile giuridico. Mentre dormivamo (forse), Google ha deciso che le sue AI, vestite da assistenti gentili e disinteressate, inizieranno *Now in US( a riassumere automaticamente le nostre email su Gmail Workspace. Sottolineo: automaticamente. Nessuna richiesta esplicita. Nessuna spunta. Nessuna notifica in stile “accetti?”.
La notizia è passata sotto il radar con la delicatezza di una zanzara in una fabbrica di turbine: Gemini, il nuovo volto carino e pseudoumano dell’intelligenza artificiale made in Mountain View, inizierà a produrre sommari automatici dei thread più lunghi direttamente sopra i messaggi nella versione mobile di Gmail. Niente di scandaloso, diranno i più. Solo un’altra feature “utile” pensata per “farci risparmiare tempo”. Ma qui il tempo che si risparmia è quello necessario a Google per chiederti il permesso.

Nel grande teatro della proprietà intellettuale, Getty Images recita il ruolo dell’eroe stanco ma determinato, intento a difendere la sua galleria di milioni di immagini da un nemico nuovo, veloce e sfuggente: l’intelligenza artificiale generativa.

Mentre l’opinione pubblica gioca ancora con ChatGPT chiedendogli ricette di pasta e battute da stand-up comedian, nei sotterranei strategici di OpenAI si sta scrivendo un copione completamente diverso. Un documento interno, trapelato o diciamocelo, strategicamente “trapelato” e citato in un’indagine del Department of Justice, ci regala una sbirciata dentro al motore di un’auto che non sta solo accelerando. Sta cambiando strada. E nessuno, ma proprio nessuno, sta più guardando il volante.

Hugging Face ha appena fatto qualcosa che i soliti colossi della robotica sognano di fare da anni, ma con un twist che sa di rivoluzione e perché no di sana provocazione tecnologica. Due robot umanoidi, sì, ma open source. Sembra una frase da manuale del futurista ingenuo, invece è l’annuncio che potrebbe scardinare decenni di dogmi e segreti industriali custoditi gelosamente in laboratori blindati.
Non è un segreto: il mondo della robotica umanoide è un feudo di giganti che costruiscono imperi dietro porte chiuse, cifrando ogni singola riga di codice, ogni algoritmo di movimento come se fosse oro nero. Eppure, Hugging Face – conosciuta per la sua piattaforma di intelligenza artificiale collaborativa ha deciso di sparigliare le carte presentando due robot completamente open source. Questo significa che chiunque abbia un minimo di dimestichezza può scaricare software, migliorare, personalizzare e, soprattutto, sviluppare nuove applicazioni senza chiedere il permesso a nessuno.

Sembra una battuta da cabaret futurista, ma è tutto reale: Google AI Overviews, il fiore all’occhiello dell’era post-search, non sa nemmeno in che anno siamo. Letteralmente. A dodici mesi dal suo debutto trionfale, l’intelligenza artificiale generativa di Mountain View continua a inciampare su dettagli che persino un aspirante stagista umano non sbaglierebbe. Il 2025? Un mistero. Le date? Variabili quantistiche. Il contesto? Fluttuante come una risposta di ChatGPT usato senza prompt ben strutturati.
Smettiamola di chiamarlo “search”. Davvero. Quello che Perplexity ha appena scaricato sotto il nome innocuo di Labs è un’esplosione termonucleare nella palude dell’informazione online. Dimentica la barra di ricerca stile anni ‘00 e preparati a un assistente AI con la sindrome di Tesla: onnipotente, sempre acceso, e probabilmente troppo intelligente per il tuo bene.
Perché Labs non cerca. Labs capisce. Labs costruisce. Labs fa il lavoro sporco. E lo fa in una sola query, iterativamente, come se l’input utente fosse solo un pretesto per dimostrare che il futuro non ha più bisogno di mouse, né di umani troppo lenti.

Non è la sceneggiatura di una satira politica, è la realtà post-verità che ci meritiamo. Un documento federale la punta di lancia dell’iniziativa “Make America Healthy Again” (MAHA), voluta da Robert F. Kennedy Jr. è stato smascherato come un Frankenstein di fonti fasulle, link rotti e citazioni generate da intelligenza artificiale, con tutti gli errori tipici di una generazione automatica mal supervisionata. No, non è un errore di battitura umano: sono proprio quelle impronte digitali inconfondibili dell’AI, le oaicite, a tradire la genesi siliconica del documento.
La keyword è report MAHA, le secondarie ovvie: ChatGPT, declino dell’aspettativa di vita negli USA. Ma qui il problema non è solo tecnico, è ontologico. Se la verità ufficiale è un’illusione generata da un modello linguistico, cosa rimane della governance democratica? Un reality show scritto da algoritmi, supervisionato da stagisti?

Ci sono dossier, e poi ci sono i dossier. Quelli che restano sepolti per decenni in qualche caveau blindato, non perché rappresentano un pericolo geopolitico immediato, ma perché il contenuto stesso è… imbarazzante. Non per la verità che rivelano, ma per le domande che sollevano. Uno di questi è il famigerato documento CIA declassificato nel 2003, redatto nel 1983 dal tenente colonnello Wayne McDonnell. Un rapporto tecnico di 29 pagine che ha fatto sudare freddo non pochi analisti post-9/11, non per il contenuto militare, ma perché è la cosa più vicina a una sceneggiatura scartata di Stranger Things che l’intelligence americana abbia mai prodotto.
Lo chiamavano il “Gateway Experience”. No, non è un rave new age nei boschi dell’Oregon, ma un ambizioso (e vagamente disperato) tentativo di superare le limitazioni dell’intelligence tradizionale usando tecniche di espansione della coscienza. L’obiettivo? Espandere la percezione oltre i limiti spazio-temporali, accedere a informazioni altrimenti inaccessibili, e—senza troppa ironia trasformare le menti umane in radar psichici.