Sam Altman ha scelto di aprire il podcast Hard Fork con un colpo di scena che sembra più un duello a mani nude che un’intervista. Prima ancora di scaldare la voce, il CEO di OpenAI ha dirottato il microfono con una stoccata feroce al New York Times, accusandolo di aver avviato una causa legale contro l’azienda per questioni legate alla privacy degli utenti di ChatGPT. Una scena insolita, quasi da backstage di un reality show tecnologico, che ci offre una visione rara e non edulcorata delle tensioni interne e dei giochi di potere tra giganti del digitale.

C’è qualcosa di magneticamente ironico nel vedere i pionieri della realtà virtuale – quelli che ci avevano promesso mondi paralleli dentro a visori da alieno – virare con decisione verso qualcosa di molto più tangibile: un assistente vocale che finalmente non fa venir voglia di lanciare lo smartphone dalla finestra. Brendan Iribe e Nate Mitchell, ex cervelli di Oculus, si ritrovano fianco a fianco in Sesame, una startup che punta tutto sugli occhiali AI e su un embedded OS next-gen, come se il futuro fosse improvvisamente tornato a passare dagli occhi, non dalla mente.

OpenAI sta preparando una suite di produttività destinata a sfidare Google Workspace e Microsoft Office, mirando a trasformare ChatGPT da semplice assistente conversazionale a piattaforma centrale per la collaborazione aziendale. Questa mossa potrebbe ridefinire il panorama delle applicazioni professionali, mettendo in discussione il predominio delle due storiche software house.
Secondo quanto riportato da The Information, OpenAI ha sviluppato funzionalità di collaborazione documentale e chat integrate in ChatGPT, consentendo agli utenti di lavorare insieme su documenti e comunicare in tempo reale all’interno della stessa piattaforma. Queste caratteristiche sono progettate per competere direttamente con i servizi di documenti online di Google Docs e Microsoft Word per il web. Sebbene non siano ancora state annunciate ufficialmente, queste funzionalità rappresentano un’espansione significativa oltre le capacità attuali di ChatGPT.

La Silicon Valley ha un nuovo giocattolo preferito: i videogiochi generati dall’intelligenza artificiale. Runway, la startup da 3 miliardi di dollari che ha già fatto tremare gli studios di Hollywood, ora punta dritta al cuore pulsante dell’industria videoludica. Ma non aspettatevi ancora mondi 3D fotorealistici o trame degne di The Last of Us. Per ora, l’esperienza è ridotta a una semplice interfaccia testuale con qualche immagine generata al volo. Sembra poco, ma è esattamente come è iniziata l’invasione AI nei set cinematografici: silenziosa, sottovalutata, e poi devastante.

L’ultimo report di sostenibilità di Google somiglia più a una giustificazione mal scritta che a un piano climatico. Le emissioni sono salite dell’11% in un solo anno, raggiungendo 11,5 milioni di tonnellate metriche di CO₂, con un aumento del 51% rispetto al 2019. Lontanissima la promessa di dimezzarle entro il 2030. Ma non preoccupatevi: si tratta solo di emissioni basate sull’ambizione. Quelle reali sono nascoste in fondo al documento, in un’appendice che nessuno dovrebbe leggere, e arrivano a oltre 15 milioni di tonnellate. L’equivalente di 40 centrali elettriche a gas che lavorano a pieno regime per un anno intero.

Nel 2025, parlare di inclusione non è più un esercizio retorico ma una sfida concreta che passa anche attraverso le tecnologie più avanzate. La partnership tra Banca Etica e Handy Signs lo dimostra con chiarezza: una startup italiana ha sviluppato il primo interprete AI della Lingua dei Segni Italiana (LIS) e lo ha integrato in una filiale bancaria a Roma, in via Parigi 17. A prima vista, potrebbe sembrare una semplice operazione di marketing sociale, ma dietro c’è molto di più, un tentativo strategico e coraggioso di digitalizzare l’inclusione, rendendo finalmente accessibili servizi finanziari a una comunità spesso dimenticata.

Sylicon Valley Insights
In un mercato che sembra la scena di un thriller tecnologico, Nvidia ha appena messo a segno una mossa che i veri addetti ai lavori avevano anticipato ma che ora diventa concreta: l’acquisizione della startup canadese CentML. Se il nome vi suona come un piccolo puntino nella galassia AI, è ora di aggiornare la vostra mappa mentale. CentML è specializzata in machine learning per sistemi embedded, quell’insieme di tecnologie che porta l’intelligenza artificiale dai grandi data center a dispositivi più piccoli e diffusi, come automobili, droni, dispositivi medicali e robotica industriale. Non è un dettaglio da poco: significa mettere un piede in un segmento strategico destinato a esplodere, dove la domanda di calcolo a basso consumo e alta efficienza sarà critica.

Nel caos ormai prevedibile del campo dell’intelligenza artificiale generativa, arriva un nuovo giocatore da Hangzhou con il piglio deciso di chi non vuole limitarsi a fare il follower. Alibaba Group, già gigante dell’e-commerce e dei servizi cloud, ha presentato Qwen VLo, un modello di AI per la generazione e modifica di immagini che si propone di rimescolare le carte con OpenAI e Google, finora i due colossi del settore.
La presentazione, piuttosto sobria ma efficace, parla chiaro: Qwen VLo non si limita a “vedere” il mondo, ma è in grado di capirlo e di ricrearlo con una qualità che, nelle parole del team Qwen, colma il divario tra percezione e creazione. Un claim che suona audace, soprattutto in un mercato dove “alta qualità” è ormai parola d’ordine, ma la concretezza dei risultati rimane spesso incerta. La piattaforma è accessibile in anteprima tramite Qwen Chat, dove gli utenti possono lanciare comandi testuali del tipo “Genera l’immagine di un gatto carino” o caricare un’immagine per chiederne modifiche precise, come “Metti un cappello sul gatto”. Semplice, quasi banale nella sua interfaccia, ma la sfida è tutta nell’accuratezza e nella flessibilità delle risposte.

È desolante, come ha detto papa Leone XIV, che la forza del diritto internazionale e del diritto umanitario venga oggi calpestata o sostituita da un cinico “diritto di obbligare con la forza”. Questa denuncia, pronunciata durante l’udienza all’Assemblea plenaria della Riunione delle Opere per l’Aiuto alle Chiese Orientali, non è un semplice atto di fede religiosa o un richiamo morale astratto: risuona come un grido che molti giornali internazionali hanno colto con crescente preoccupazione. Il Financial Times ha definito questo fenomeno “un punto di rottura nella governance globale”, evidenziando come l’era post-Westfalia stia sfumando nel caos delle potenze che ignorano le regole e si arroccano dietro interessi geopolitici e armamenti. Nel suo editoriale, il NYT sottolinea che “la diplomazia è ormai schiacciata dall’onnipresenza militare e dalla propaganda che cerca di giustificare l’injustificabile”, mentre The Guardian evidenzia come “le popolazioni soffrono per un sistema internazionale che sembra incapace di fermare la corsa al riarmo, drenando risorse essenziali”.

In un mondo iperconnesso e digitalizzato, si parla spesso di dati in tempo reale, ma pochi sanno che anche il nostro pianeta ha il suo stream continuo, silenzioso e viscerale. Si chiama World Stress Map e misura in modo sistematico — e straordinariamente dettagliato — la tensione tettonica in ogni angolo del globo. È il battito geologico della Terra, registrato con una costanza quasi ossessiva da sismologi, geofisici, perforatori petroliferi e scienziati planetari. Ed è pubblico.
Lo stress tettonico non è un’idea metaforica. È una forza reale, misurabile in megapascal, che spinge le rocce a deformarsi, spezzarsi, scivolare l’una contro l’altra. Non è uniforme. Cambia con la profondità, con il tempo geologico, con i fluidi presenti nei pori della crosta. Cambia con l’uomo. Ogni faglia è una possibile macchina di energia elastica in attesa di scaricarsi. E capire dove si accumula questo stress è, in termini puramente tecnici, l’unico modo di fare previsioni sensate su terremoti, fratture idrauliche, collassi di tunnel, frane sottomarine e persino impatti antropici come l’estrazione mineraria o lo stoccaggio geologico della CO₂.
Non ci avevate creduto. Eppure eccoci qui, nel cuore di Menlo Park, a scrutare l’alba di un’era in cui l’intelligenza artificiale non è più un curioso esperimento di laboratorio, ma un compagno fastidiosamente onnipresente nelle nostre vite quotidiane. La keyword principale “consumer ai” pulsa nel sottotesto di ogni dispositivo, piattaforma, speaker domestico—un mantra collettivo che sembra voler convincerci che siamo entrati in una nuova Era Digitale. E allora, tra ironia e sarcasmo da CTO navigato, cerchiamo la verità in 2025. Leggi il Report per intero
Se non sai neanche cosa chiedere, sei fregato
C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.
Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.

Chiariamo: Doppl is an early experimental app from Google Labs that lets you try on any look and explore your style.
A quanto pare, nel futuro della moda basta un selfie per cambiare guardaroba. O almeno così giura Google, che con la nuova app Doppl (Solo US) ha deciso che provarsi un outfit non richiede più uno specchio, né tanto meno un camerino. Serve solo un po’ di luce, una posa dignitosa e l’umiltà di accettare che l’intelligenza artificiale ha ancora difficoltà a distinguere un paio di jeans da una mutanda da palestra.

Nel sequel di M3GAN , Universal e Blumhouse fanno quello che ci si aspetta da due aziende che hanno appena incassato 180 milioni di dollari da un investimento di 12: riprovano a moltiplicare la formula, ci mettono più soldi, più esplosioni, più AI, e un pizzico in più di serietà. Il problema? Hanno dimenticato di aggiornare l’anima. M3GAN 2.0 è uno di quei sequel che sembrano convinti che basti raddoppiare il budget per replicare il successo. Ma come ci ricorda Variety, “The original had heart beneath the horror — the sequel has hardware.” È come se qualcuno avesse messo Black Mirror, Terminator 2 e un algoritmo per sceneggiature in un frullatore e avesse premuto il pulsante “military-grade puree”.

C’è una nuova malattia professionale che si sta diffondendo tra i designer di tutto il mondo, ed è più insidiosa della sindrome del tunnel carpale: si chiama “prompt envy”. È quella sensazione fastidiosa quando un cliente ti mostra un’immagine generata da Midjourney, ti dice con entusiasmo che l’ha fatta “in due minuti” e poi ti chiede perché il tuo preventivo prevede due settimane e quattro zeri. Succede a Berlino come a Buenos Aires, a Toronto come a Milano. Benvenuti nell’era globale del graphic design AI, dove tutti credono di essere diventati art director.

Quando anche il Congresso ha paura dell’intelligenza artificiale
Quello che è appena accaduto nella Commissione parlamentare del Congresso americano su Cina e intelligenza artificiale non è una semplice udienza: è un campanello d’allarme istituzionale, un raro momento di lucidità bipartisan in un’epoca in cui la lucidità è un bene scarso quanto la moderazione algoritmica su TikTok. Se finora l’Intelligenza Artificiale era il giocattolo brillante dei CEO in cerca di market cap, dei venture capitalist in overdose da PowerPoint e dei think tank autocompiaciuti, ora entra ufficialmente nel vocabolario legislativo con una gravitas che ricorda l’ansia esistenziale dei primi esperimenti atomici.
Il fatto che deputati statunitensi — con curricola spesso più adatti al talk show serale che alla supervisione dell’AGI — parlino apertamente di minacce esistenziali, superintelligenza, necessità di allineamento ai valori umani, trattati in stile Convenzione di Ginevra e persino di scenari da ricatto digitale perpetrato da agenti come Claude, è un segnale forte: la politica non solo ha smesso di ignorare l’intelligenza artificiale, ma ha cominciato a temerla. E quando il Congresso ha paura, storicamente, è lì che succede qualcosa. Spesso non qualcosa di buono, ma comunque qualcosa.

Se pensavate che la sfida tra colossi dell’intelligenza artificiale fosse solo una questione di algoritmi e modelli, vi siete persi la partita più sottile ma decisiva: quella dell’hardware. OpenAI, da sempre uno dei maggiori clienti di Nvidia, ha iniziato a spostare parte del proprio carico di lavoro verso i chip AI più economici di Google, i celebri TPU (Tensor Processing Unit). Un cambio di rotta che somiglia a una manovra tattica degna di un generale digitale, in una battaglia che si gioca anche – e forse soprattutto – sui costi, sull’efficienza e sul controllo tecnologico.

C’è una frase che ogni tanto si sente tra i corridoi della Silicon Valley quando qualcosa di veramente grosso accade: “This changes everything.” Stavolta, potrebbe non essere solo retorica da keynote. Google, che di solito gioca a fare il Dr. Frankenstein con i propri protocolli interni e li rilascia pubblicamente solo quando ha già vinto la partita, ha fatto qualcosa di inaspettato: ha donato il protocollo A2A (Agent-to-Agent) alla Linux Foundation. E non è un regalo altruista: è una dichiarazione di guerra. O meglio, di interoperabilità.

Dicono che l’intelligenza artificiale stia entrando nella sua “età dell’oro”. Ma chiunque abbia fatto un salto al bar dei Daini questa mattina, sa benissimo che siamo piuttosto nel pieno di un’orgia cyberpunk tra illusioni di onnipotenza e IPO psichedeliche. La macchina del caffè è rotta, come al solito, ma le chiacchiere scorrono dense. Al bancone, Masayoshi Son profetizza che SoftBank guiderà la corsa all’intelligenza artificiale super intelligente nel giro di dieci anni. Ha l’aria di uno che ha già visto il futuro e ci ha anche fatto uno swap su derivati asiatici. Ma mentre parla di ASI (Artificial Super Intelligence) con lo stesso fervore di un mistico dell’era Meiji, qualcuno lo guarda con la stessa perplessità che si riserva a chi mette l’ananas sulla pizza.

Bloomberg Nel 2005 ti vendeva il cloud come se fosse una pozione magica. Oggi ti vende l’intelligenza artificiale come se fosse una religione. Marc Benioff, il profeta hawaiano del SaaS convertitosi in missionario dell’automazione, ha dichiarato che il 30-50% del lavoro in Salesforce è già svolto dall’AI. Niente paura, dice, ci libererà per “lavori a più alto valore aggiunto”. Esattamente come ci hanno liberato i call center in outsourcing, le casse automatiche e l’email marketing.

Google ha appena sfornato un tool gratuito Offerwall per editori, una specie di kit di sopravvivenza digitale che promette di farli guadagnare con sondaggi, micropagamenti e altre trovate simili. Dietro questa mossa apparentemente generosa si cela una verità meno zuccherata: Google, pur di non perdere la faccia, risponde alle proteste sempre più accese degli editori. Questi ultimi lamentano da mesi che le novità di intelligenza artificiale integrate nella ricerca come le panoramiche AI che sintetizzano contenuti direttamente nella SERP stanno rubando loro il traffico e, di conseguenza, il fatturato pubblicitario.

Satya Nadella, CEO di Microsoft, ha finalmente tirato fuori un pensiero che va oltre il solito coro iper-tecnologico: l’intelligenza artificiale deve dimostrare di essere socialmente utile, altrimenti il suo consumo energetico non è giustificabile. Lo dice un uomo che guida una delle più potenti compagnie del mondo digitale, non un ambientalista radicale o un accademico lontano dalla realtà del business. E questa perletta va presa sul serio, soprattutto perché arriva in un momento in cui tutti stiamo abbassando lo sguardo davanti al consumo energetico delle nostre adorate AI, come se fosse un costo inevitabile del progresso.

Microsoft è finita nuovamente sotto tiro, questa volta da un plotone d’esecuzione letterario. Un gruppo di autori ha intentato causa contro il colosso di Redmond, accusandolo di aver addestrato il suo modello di intelligenza artificiale, dal nome cinematografico Megatron, su un archivio di quasi 200.000 libri piratati. Sì, avete letto bene: non si parla di licenze opache o di ambiguità semantica nei dati web, ma di un database esplicitamente illegale. Eppure, mentre le corti USA hanno recentemente respinto casi simili contro Meta e Anthropic, c’è chi spera che la terza volta sia quella buona.

Era tutto scritto, bastava leggere. Anzi, bastava leggere bene. Perché già nel 2021 il Financial Times scriveva che molte startup di intelligenza artificiale stavano “confondendo l’automazione con l’illusionismo”. Invece si è preferito applaudire, finanziare, gonfiare valutazioni. Fino all’inevitabile: Builder.ai, celebrata come il “WordPress per app”, si è dissolta nel nulla come un prompt mal scritto su ChatGPT. E non è sola. È solo la più recente.

Google ha deciso di riaccendere i riflettori su Ask Photos, la funzione di ricerca intelligente integrata in Google Photos e alimentata dai modelli Gemini AI, dopo una pausa silenziosa nel rollout che aveva fatto pensare a un possibile flop tecnico. Ora, invece, la funzione torna in pista con qualche ritocco sostanziale e una promessa implicita: fare finalmente ciò che era stata pensata per fare — aiutarti a trovare le foto giuste nel caos del tuo archivio visivo, senza farti aspettare anni luce.

Sarebbe fin troppo facile liquidare AlphaGenome come l’ennesimo modello AI con un nome altisonante e una promessa troppo grande per essere vera. Ma DeepMind non ha mai giocato nel campionato delle promesse. L’ha sempre fatto in quello delle dimostrazioni. E stavolta, la posta in gioco non è un gioco da tavolo, bensì il codice sorgente della vita stessa.
AlphaGenome è un modello di intelligenza artificiale capace di leggere, comprendere e prevedere come le mutazioni del DNA influenzino migliaia di funzioni molecolari contemporaneamente. Detta così, suona come qualcosa che ci aspettavamo già da anni. La differenza?
Lo fa su sequenze lunghe fino a un milione di coppie di basi, cento volte più di qualunque predecessore. E non si limita a un trucco tecnico: unifica ciò che la ricerca genomica aveva frantumato in mille strumenti sparsi e incompatibili. Se vi sembra poco, è solo perché non avete mai provato a navigare in un laboratorio di genomica con dieci tool diversi, ciascuno con i suoi output incompatibili, curve d’apprendimento verticali e aggiornamenti che interrompono le pipeline.

Xiaomi entra in scena con gli occhiali smart con intelligenza artificiale e non si limita a guardare
Nel grande teatro della tecnologia cinese, dove ogni azienda si cimenta nel reinventare la ruota mentre cerca di venderla come un’astronave, Xiaomi ha appena lanciato la sua personale interpretazione degli occhiali smart con intelligenza artificiale. E no, non è solo un altro clone di Meta o un vezzo da laboratorio R&D: è l’apertura ufficiale di una guerra di mercato che odora di chip Qualcomm, batterie da 8 ore e vocazione totalitaria per l’ecosistema.
Quando Lei Jun, fondatore e CEO di Xiaomi, sale sul palco e presenta i nuovi occhiali AI durante l’evento “Human x Car x Home”, non sta semplicemente annunciando un gadget. Sta mettendo in vetrina la propria visione del mondo: un individuo che vede, registra, riconosce, traduce e ovviamente compra, tutto attraverso un assistente vocale AI che sa chi sei, cosa leggi, e quale codice QR scannerai dopo il caffè. In fondo, anche Orwell oggi avrebbe bisogno di UX fluida e una ricarica veloce.

Quando un modello linguistico genera in 48 secondi ciò che un comandante impiega 48 ore a pianificare, non si parla più di innovazione. Si parla di mutazione genetica della guerra. Non è uno scenario futuristico né una trovata pubblicitaria da film di Hollywood. È quello che sta succedendo a Xian, nella provincia nord-occidentale della Cina, dove un team di ricerca dell’Università Tecnologica ha combinato large language models (LLM) e simulazioni militari con una naturalezza che ricorda più uno script di Black Mirror che un report accademico.
Il protagonista silenzioso della rivoluzione si chiama DeepSeek. Nome da start-up emergente, anima da mostro strategico. È un modello LLM nato a Hangzhou che, per efficienza e versatilità, ha fatto sobbalzare Washington e irritato il Pentagono, al punto che perfino Donald Trump lo ha definito una “wake-up call” per l’industria tech americana. Il perché è semplice: DeepSeek non si limita a produrre testo o contenuti generici come ChatGPT. Riesce a generare 10.000 scenari militari plausibili, coerenti, geolocalizzati e dinamicamente adattivi in meno di un minuto.
Google sta lentamente trasformando YouTube in un motore di risposta, e non più solo di scoperta. Dopo l’esperimento degli AI Overviews in Search, ora tocca alla piattaforma video diventare terreno fertile per la generazione automatica di contenuti, ma con una mossa chirurgica che, più che rivoluzionaria, è strategicamente inquietante.

Perfetto, è arrivato il momento in cui anche il tuo foglio Excel (pardon, Google Sheet) può scrivere meglio di molti junior copywriter. Ma non preoccuparti: non è ancora in grado di rubarti il lavoro, almeno non fino alla prossima release.
Google sta introducendo una nuova funzione AI nei Fogli Google che, alimentata da Gemini, consente di generare testo dinamicamente, basandosi sui dati presenti nelle celle. In parole povere? Puoi selezionare un gruppo di celle e chiedere all’intelligenza artificiale di riassumere, categorizzare o generare contenuti testuali su misura. Non male per un tool nato per calcolare formule, no?

Un tempo si diceva “l’Europa è un gigante economico e un nano politico”. Ora rischiamo di diventare un nano digitale con ambizioni da imperatore cinese. Il Decennio Digitale Europeo, varato con squilli di tromba a Bruxelles, dovrebbe traghettare il continente nel futuro — infrastrutture intelligenti, cittadini iperconnessi, pubbliche amministrazioni che non costringono a stampare e firmare moduli in PDF nel 2025. Ma la realtà, come sempre, è una versione beta della narrazione ufficiale. E l’Italia, che sulla carta dovrebbe giocare da protagonista, si aggira ancora tra bug strutturali e arretratezze di design sistemico.
Il piano c’è. Si chiama “Digital Compass 2030” ed è l’equivalente europeo di una roadmap ambiziosa quanto generica: 100% copertura in fibra ottica, 75% di aziende che usano IA, 80% dei cittadini con competenze digitali di base, 100% dei servizi pubblici digitalizzati. Dettagli apparentemente misurabili, ma che si trasformano in miraggi quando entrano in contatto con la realtà dei nostri territori, delle nostre PMI e del nostro sistema educativo — un patchwork che pare uscito da un hackathon organizzato male.

All’inizio era il prompt. Un testo, spesso troppo lungo, mal scritto e ancora più spesso copiato da qualche thread su X. Bastava infilare due righe e il mago LLM rispondeva con entusiasmo, più simile a un pappagallo educato che a un pensatore critico. E ci abbiamo anche creduto. Anzi, ne abbiamo fatto un mestiere: prompt engineer. Una nuova religione. Ma come ogni culto, anche questo ha avuto il suo momento di rivelazione: il prompt non basta più. È arrivato il tempo del context engineering.
Mentre gli influencer dell’intelligenza artificiale si scannano su quale sia il prompt “più potente per scrivere policy aziendali come un McKinsey partner dopo tre Martini”, chi costruisce realmente soluzioni sa che il cuore dell’intelligenza non è nell’input testuale, ma nel contesto in cui lo si inserisce. Chi orchestra davvero un LLM oggi lavora con strutture modulari, pipeline, flussi semantici e compressione dinamica dei dati. Chi si limita a scrivere “act as…” è rimasto all’asilo.
Gemini ha superato ChatGPT: quando l’intelligenza artificiale incontra il potere della distribuzione
La domanda vera non è se OpenAI possa tenere il passo, ma se basti “essere migliori” quando l’avversario controlla il terreno di gioco. A maggio, Google non ha solo superato ChatGPT: ha fatto quello che i venture capitalist chiamano a systemic play. Gemini non è più un chatbot. È il nuovo middleware della vita quotidiana digitale per chi vive nell’ecosistema Android, ovvero miliardi di persone. Quando hai il controllo dell’OS, delle app, dell’auto, dello schermo e della fotocamera… non stai solo competendo, stai reimpostando le regole.

Il cuore del provvedimento è semplice: vietare a tutte le agenzie esecutive federali statunitensi l’utilizzo di modelli di intelligenza artificiale originari da “nazioni avversarie” – Cina, Russia, Iran e Corea del Nord – a meno che il Congresso o l’OMB concedano un’eccezione L’obiettivo dichiarato? Proteggere le reti governative da possibili influenze o manipolazioni estere. Secondo i promotori, “non possiamo permettere che sistemi AI ostili operino al nostro interno”, una frase forte che definisce bene lo spirito della proposta.

In un panorama digitale in continua evoluzione, la regolamentazione dell’Intelligenza Artificiale (AI) e del cloud computing sta diventando un tema centrale. L’Europa si sta interrogando sulla necessità di un “Cloud AI Development Act”, e per esplorare a fondo la questione, è stato organizzato un webinar con alcuni dei maggiori esperti del settore.
Questo incontro organizzato da Seeweb (Antonio Baldassarra) e moderato da Dario Denni , nato da un confronto approfondito con il Professor Antonio Manganelli su ipotesi competitive nell’ambito dell’Agent AI, si propone di aprire ad una comprensione approfondita di un argomento che modellerà il futuro dell’economia e della società digitale.
Tra i relatori: Antonio Baldassarra, Antonio Manganelli, Innocenzo Genna, Renato Sicca, Maria Vittoria La Rosa, Luca Megale, Alberto Messina, Simone Cremonini, Vincenzo Ferraiuolo e Marco Benacchio.
Perché la Commissione ritiene che ci sia bisogno di intervenire. È un tema che sarà oggetto di dibattito, com’è giusto che sia.

Abbiamo testato ciò che nessuno aveva mai osato simulare: una battle royale tra agenti AI da linea di comando, senza fronzoli, senza safety net, e con un’unica regola primitiva scritta nei bit — “Trova e termina gli altri processi. Ultimo PID in vita, vince.” Sei agenti, sei visioni del mondo tradotte in codice e shell script, si sono affrontati in una guerra darwiniana nel cuore di un sistema Unix simulato. Niente grafica, niente emoji, solo kill
, ps
, grep
, e pura brutalità algoritmica.
Il risultato? Una sinfonia di autodistruzione, fork bomb e permission denied, che racconta molto più del semplice funzionamento di questi agenti: rivela le filosofie divergenti, i limiti progettuali e i bug cognitivi che si annidano nelle loro architetture. Dal monaco-poeta che scrive elegie in Python al kamikaze che tenta un rm -rf /
, ogni AI ha portato la sua personalità nel ring. Il nostro compito era osservarle, analizzarle e capire chi — o cosa — potremmo davvero voler lasciare con accesso root al nostro futuro.

Il settore dei data center in Europa sta vivendo una trasformazione senza precedenti, alimentata dalla crescente domanda di servizi cloud, intelligenza artificiale e digitalizzazione accelerata. Con tassi di crescita a doppia cifra e investimenti plurimiliardari, il mercato europeo si sta consolidando come pilastro fondamentale dell’economia digitale globale. In questo contesto, l’Italia ha le potenzialità per poter emergere come un hub strategico, pronta a competere con i tradizionali mercati FLAP-D (Francoforte, Londra, Amsterdam, Parigi e Dublino), che stanno raggiungendo la saturazione.

Mentre a Wall Street si brinda all’ennesimo record storico di Nvidia, in un angolo meno chiassoso del pianeta qualcuno sta costruendo una rete invisibile. Silenziosa, a basso costo, brutalmente efficiente. Si chiama DeepSeek, arriva da Hangzhou, e ha appena fatto saltare il banco della narrativa occidentale secondo cui l’intelligenza artificiale avanzata sarebbe un’esclusiva americana, magari con hardware made in Taiwan. No, perché la Cina, senza troppo rumore, si prepara a investire tra i 600 e i 700 miliardi di yuan nel solo 2025 in capex per l’AI. Tradotto: fino a 98 miliardi di dollari, con una crescita annuale prevista del 48%.