Sembra quasi comico che dopo anni a discutere di metodologie, cicli di sviluppo e framework salvifici, oggi ci ritroviamo davanti a un paradosso volutamente provocatorio. La software factory tradizionale non è più il centro del mondo digitale. La novità è che il ciclo di sviluppo stesso diventa eseguibile da agenti intelligenti, lasciando agli umani il ruolo più raro e prezioso. Decidere. Interpretare. Dare senso. È un ribaltamento che ricorda quelle frasi caustiche dei vecchi editori finanziari, quando avvertivano che la tecnologia non toglie lavoro ma scoperchia inefficienze imbarazzanti.
La parola che domina la scena è semplice solo in apparenza: regolamentazione. Chi segue il gioco di potere attorno all’intelligenza artificiale capisce subito che non è una faccenda di principi astratti. È una guerra fredda di nuova generazione. Le mosse della Casa Bianca, le tensioni sui chip avanzati e l’espansione silenziosa delle piattaforme autonome raccontano un’epoca in cui l’informazione è potere, ma la potenza computazionale è qualcosa di molto più vicino alla sovranità. Titv di The Information, con il suo taglio affilato e la sua ossessione per i dettagli che svelano l’impalcatura nascosta della tecnologia globale, offre una lente perfetta per decifrare ciò che sta succedendo.
La corsa globale ai droni armati entra in una nuova fase che profuma di inevitabile trasformazione strategica, e il recente contratto assegnato dal Dipartimento della Difesa statunitense a XTEND rappresenta un indizio fin troppo esplicito. La keyword droni swarm sta diventando il nuovo mantra della dottrina militare americana, con l’intelligenza artificiale applicata che spinge verso una capacità di attacco modulare, autonoma e potenzialmente replicabile su scala industriale. La scena che si delinea è quella di un campo di battaglia dove il costo marginale della potenza di fuoco precipita, mentre la complessità tecnologica cresce in silenzio sotto l’effetto combinato di software, sensori, produzione distribuita e logiche di interoperabilità. L’America ha capito che il futuro della supremazia militare non passa più solo per portaerei e bombardieri, ma per sciami di micro piattaforme intelligenti capaci di saturare, confondere e colpire con precisione chirurgica.
Aidan Toner-Rodgers, dottorando di 27 anni al MIT, sembrava l’emblema del ricercatore perfetto: giovane, brillante, con una visione futurista di come l’intelligenza artificiale potesse accelerare la scoperta scientifica. Il suo studio, pubblicato su arXiv con il titolo “Artificial Intelligence, Scientific Discovery, and Product Innovation”, sosteneva che un laboratorio di materiali scientifici aveva registrato un aumento del 44 % nelle nuove scoperte, un +39 % nei brevetti e +17 % in innovazione di prodotto grazie a un sistema AI.
Meta ha deciso che aspettare non è più un’opzione. La fame energetica dell’intelligenza artificiale si sta trasformando in un paradosso industriale in cui i data center crescono più velocemente della capacità del sistema elettrico. Meta vuole quindi entrare nel trading elettrico per spingere la costruzione di nuovi impianti e garantirsi quella che ormai è la vera valuta del potere digitale: megawatt stabili e prevedibili. La mossa appare come un segnale piuttosto chiaro al mercato dell’energia, quasi un “se non lo fate voi, lo facciamo noi”, una frase che alcuni sviluppatori di centrali leggono con una certa dose di sollievo.
La narrativa che vorrebbe il rally azionario AI in Cina come l’ennesima illusione collettiva suona sempre più come un riflesso pavloviano di un Occidente abituato a confondere la propria tecnologia con il mondo intero. La realtà finanziaria mostra che la crescita trainata dall’intelligenza artificiale in Cina ha radici meno speculative e più industriali, un paradosso che dovrebbe suscitare imbarazzo in chi continua a evocare la parola “bolla” ogni volta che vede un grafico in salita. Una frase che, a quanto pare, fa tremare i polsi a chi si aspetta che solo la Silicon Valley possa permettersi il lusso della supremazia tecnologica.
La tentazione di liquidare l’intelligenza artificiale come l’ennesima mania del momento è comprensibile, quasi rassicurante per chi spera che la trasformazione digitale passi accanto senza disturbare. Chi osserva con un minimo di lucidità sa però che la metamorfosi in corso ha la delicatezza di un temporale tropicale. Arriva all’improvviso, sradica certezze, impone nuova topologia del potere. La parola chiave che governa questo scenario è intelligenza artificiale, affiancata da due concetti che ne amplificano gli effetti come camere di risonanza naturale, trasformazione digitale e cultura tecnologica. Sono questi i tre assi semanticamente più fertili per decifrare un mondo che si riscrive in tempo reale, spesso con una velocità che sfida la percezione stessa di continuità.
Immagina il salotto degli Ellison a capodanno (o meglio, a Ringraziamento): da una parte il titolo Oracle che balla come su un campo da vela in burrasca, dall’altra il figlio David che sogna di mettere le mani su Warner Bros Discovery. Non è fantascienza aziendale: è il copione che Larry e David Ellison stanno recitando, e la posta in gioco è gigantesca non solo in dollari, ma anche in ambizione strategica.
Negli ultimi sei settimane Oracle non ha fatto sconti al mercato. Il prezzo delle azioni è precipitato, scalfendo parte del monte-ricchezza di Larry Ellison, il quale possiede circa il 41 % del capitale. Le oscillazioni non sono semplici numeri: dietro ci sono prestiti personali garantiti da azioni. In un documento ufficiale risulta che a metà settembre Ellison aveva impegnato 346 milioni di azioni Oracle come collaterale per indebitarsi e finanziare “impegni aziendali personali esterni”. Poco più di un anno prima aveva già impegnato 277 milioni di azioni, segno che il ricorso al leverage non è un vezzo, ma una strategia attiva.
Un interessante editoriale del Prof. Roberto Navigli sull’Economia del Corriere della Sera ci racconta che a volte un Paese decide di sorprendere chi lo dava per irrimediabilmente dipendente dalle scelte altrui. L’ascesa dell’intelligenza artificiale italiana ricade esattamente in questa categoria, un gesto quasi impulsivo che sembra dire ai colossi americani e cinesi che il gioco non è a senso unico. La corsa a un modello linguistico nazionale ha il sapore di quelle imprese industriali che segnano un’epoca e rivelano qualcosa di più profondo riguardo a un’identità che non accetta di essere ospite nel futuro costruito da altri.
Reduce dal fervore di COP30 a Belém, dove promesse, impegni e qualche inevitabile selfie politico hanno riempito i corridoi senza che fosse possibile adottare alcuna road map concreta, questa volta a tornare al centro del dibattito climatico è l’Australia, con un messaggio sorprendentemente compatto da parte delle sue grandi compagnie energetiche: puntare sulle rinnovabili non è solo sostenibile, è l’unica mossa sensata per evitare bollette stellari e un crash energetico da manuale. E visto che metà del Paese ancora dipende da centrali a carbone anziane come un modem 56k, la questione è leggermente urgente.
L’intelligenza artificiale non è più un’ospite di passaggio nella nostra quotidianità. Tanto meno lo è nelle aule universitarie. È diventata, anzi, una coinquilina fissa, spesso invisibile e a volte anche ingombrante. Oggi qualsiasi studente può generare in pochi secondi una tesi decente, un codice funzionante o un’analisi statistica sofisticata. Il risultato è che si rischia di scambiare velocità per profondità e omogeneità per qualità. Ne parlavo proprio giorni fa all’interno dell’Accademia nella quale insegno digital marketing ai ragazzi del 2° anno, nati nel 2005. Il vero pericolo, cercavo di spiegare, non è la tecnologia in sé, ma la tentazione di usarla come scorciatoia per il pensiero: un conformismo digitale che premia l’output medio e mette in secondo piano la deviazione creativa dell’essere umano.
È in questo scenario che matura una riflessione urgente: le università devono smettere di essere semplici consumatrici di algoritmi e trasformarsi in laboratori di resistenza intellettuale. Devono insegnare non solo a usare l’AI, ma a metterla in discussione, a smontarla, a superarla. Solo così potremo evitare di ritrovarci con laureati perfettamente addestrati a ripetere il già noto, invece che a inventare il nuovo.
C’era un tempo in cui l’acronimo FAANG, Facebook, Amazon, Apple, Netflix e Google, era il passaporto linguistico del potere tecnologico, il simbolo stesso della Silicon Valley. Correvano gli anni nei quali i social media erano “rivoluzionari”, lo streaming uno sviluppo da piano industriale e l’innovazione si misurava in utenti, non in parametri di addestramento. Poi è arrivata l’intelligenza artificiale, e con lei un nuovo frutto dell’iperbole tecnologica: MANGO ovvero Microsoft, Anthropic, Nvidia, Google DeepMind e OpenAI. Stesso sapore di onnipotenza, ma una polpa tutta diversa.
Quest’anno, il tema ufficiale della Fiera del Libro di Francoforte 2025, che si è svolta il mese scorso è stato “Ponti di libertà”. Ma a detta degli editori, quei ponti sembrano costruiti su fondamenta digitali un po’ instabili, mentre il traffico che ci scorre sopra è monopolizzato dai soliti colossi Usa, Google, Microsoft e Amazon in primis, assieme ai loro cugini cinesi.
PODCAST “FRONTIERE ARTIFICIALI” – Episodio 1
Freida McFadden è una delle autrici più lette al mondo. Ma è anche una delle più misteriose. Lunga vita alla riservatezza, certo, ma quando un’autrice produce bestseller a ritmi di una GPU sotto stress, evita quasi completamente la scena pubblica e risponde alle interviste solo via email, qualche domanda sorge spontanea.
Nel vasto mosaico dell’industria italiana, ogni tanto scompare una tessera. A volte è piccola, altre volte è un’intera parte dell’immagine. La cessione di Comau, storica eccellenza italiana nella robotica industriale, rientra senza dubbio nella seconda categoria. Stellantis ha infatti avviato la procedura per cedere il pieno controllo dell’azienda al fondo statunitense One Equity Partners, pronto a salire dal 50,1% al 100% del capitale.
La Cop30 di Belém si è chiusa, come da tradizione, con quel mix di diplomazia, frustrazione e applausi moderati che ormai caratterizza ogni summit sul clima. Un “mini-compromesso”, lo definiscono molti osservatori, che però ha un peso politico preciso: non interrompere il cammino negoziale, per quanto lento, che porta all’obiettivo della riduzione del riscaldamento globale.
In un’epoca in cui ogni settore vuole definirsi “smart”, anche la difesa ha deciso di non essere da meno. Non più soltanto droni, ma droni “intelligenti”. E, per chi ha gusti più estremi, persino droni “kamikaze”, un termine che nessuna strategia di comunicazione è mai riuscita davvero ad addolcire. È in questo contesto che nasce la nuova joint venture firmata da Indra, colosso tecnologico spagnolo, e Edge, gigante della difesa degli Emirati Arabi Uniti, annunciata ufficialmente a Madrid e destinata a diventare uno dei più rilevanti poli industriali europei nel settore delle tecnologie autonome per la sicurezza.
Il 2025 si chiude con una certezza: il 5G non è più una promessa, è un’infrastruttura su cui si muove una fetta sempre più ampia dell’economia digitale globale. Secondo l’ultimo Ericsson Mobility Report, gli abbonamenti 5G supereranno i 2,9 miliardi entro la fine dell’anno, pari a un terzo delle sottoscrizioni mobili mondiali. Numeri che fotografano un sistema in piena evoluzione, mentre già si intravede all’orizzonte la sagoma imponente del 6G, il cui debutto commerciale è previsto, almeno in Europa, tra il 2031 e il 2032.
Allo European Banking Congress di Francoforte, Christine Lagarde pur non usando toni apocalittici ha inviato un messaggio molto chiaro: l’Europa è vulnerabile. Ma noi questo già lo sapevamo. L’UE è vulnerabile non solo per colpa dei capricci geopolitici mondiali, tra dazi americani, guerra in Ucraina e concorrenza cinese, ma anche, se non soprattutto, per un fattore domestico: un mercato interno ingessato, lento e incapace di liberare il potenziale nei settori chiave del futuro come tecnologia digitale, intelligenza artificiale e mercati dei capitali.
Nel mondo dell’AI, dove ogni settimana spunta un nuovo annuncio miliardario, la notizia della partnership tra OpenAI e Foxconn si distingue come una mossa decisiva: non solo perché unisce due protagonisti globali della tecnologia, ma anche perché segna un passo concreto verso la costruzione, in territorio Usa, delle infrastrutture che saranno chiamate a reggerere il prossimo decennio di sviluppo dell’intelligenza artificiale.
Immaginate di sfiorare un interruttore invisibile nel vostro cervello e far uscire parole silenziose, come un sussurro digitale che sfida la paralisi. Non è fantascienza, ma la nuova frontiera di Paradromics, l’azienda texana che ha appena incassato il via libera della FDA per impiantare il suo chip Connexus in due pazienti affetti da gravi disabilità motorie e affette da mutismo. Rivali di Elon Musk?
La scena europea della tecnologia raramente offre momenti di lucidità strategica, ma quando due potenze come Francia e Germania decidono di allineare visione politica, muscoli industriali e ambizioni digitali, vale la pena fermarsi un istante e osservare con attenzione. La mossa di costruire un’alleanza strutturata con Mistral AI e SAP SE per dare vita a un’architettura di intelligenza artificiale sovrana dedicata alla pubblica amministrazione segna un cambio di ritmo che non è solo tecnologico, ma profondamente geopolitico. La keyword sovranità digitale europea smette di essere uno slogan e inizia a somigliare a un progetto industriale concreto, capace di ridefinire il modo in cui i governi erogano servizi, gestiscono dati e si proteggono dalle dipendenze tecnologiche globali.
L’odore di un ordine esecutivo che vuole mettere a tacere gli stati americani sulla regolamentazione dell’intelligenza artificiale è un segnale quasi poetico della confusione istituzionale che domina la scena tecnologica statunitense. Sembra la trama di un romanzo politico dove la Casa Bianca sogna centralizzazione mentre i procuratori generali dei singoli stati affilano le lame costituzionali. La bozza dell’ordine, poi parcheggiata con il freno a mano tirato, puntava a creare una sorta di super arma legale federalista capace di impugnare ogni tentativo locale di dare regole all’AI. La keyword regolamentazione AI federale non poteva chiedere un contesto migliore per mostrare quanto incoerente sia oggi la politica tecnologica, stretta tra ideologia, geopolitica e il timore esistenziale di perdere la leadership sulla prossima rivoluzione industriale.
ChatGPT non è più solo il tuo consulente digitale one‑to‑one: OpenAI ha appena trasformato l’assistente in un vero e proprio spazio collaborativo. L’azienda ha annunciato il lancio globale delle chat di gruppo, disponibili per tutti gli utenti con piano Free, Go, Plus e Pro.
In pratica, puoi invitare fino a 20 persone in una stessa conversazione condivisa con l’IA. (vedi OpenAI Help Center) Pensala come una chat di lavoro/team, una stanza per pianificare vacanze, preparare presentazioni, o anche semplicemente decidere dove andare a cena ma con ChatGPT pronto a intervenire.
Il Regno Unito sta giocando le sue carte migliori, e lo fa a suon di miliardi e posti di lavoro. Negli ultimi giorni, il governo ha annunciato un’ondata di investimenti in intelligenza artificiale destinata a ridefinire il tessuto industriale e tecnologico del Paese. Decine di migliaia di nuovi posti di lavoro, più di 24 miliardi di sterline di investimento privato in un solo mese e una serie di partnership tra aziende internazionali e locali disegnano un quadro inedito, in cui la Gran Bretagna non vuole più essere spettatore ma protagonista globale dell’AI.
Il State of AI Ethics Report Volume 7 del Montreal AI Ethics Institute non è un semplice documento tecnico, ma una bussola filosofica che costringe chiunque operi nell’ecosistema IA a confrontarsi con la realtà più scomoda: l’Intelligenza Artificiale non è neutrale. La sua governance è una questione di potere, e chi detiene il controllo sui sistemi decisionali digitali plasma la vita collettiva come fosse un laboratorio sociale privato. Pochi soggetti, grandi aziende e governi selezionati, decidono quali capacità umane espandere e quali ignorare, trasformando la partecipazione pubblica in un adempimento formale, una paginetta burocratica da spuntare piuttosto che un fondamento di legittimità. Il deficit democratico che ne deriva non è una questione di skill tecniche mancanti, ma di alfabetizzazione civica digitale: la AI literacy diventa il metro con cui misurare la salute di un sistema democratico e l’equità della distribuzione della conoscenza.
In un’epoca in cui tutti parlano di intelligenza artificiale come se bastasse installare un algoritmo per trasformare un’impresa, il nuovo report di IBM è una doccia fredda con una spruzzata di realismo da CEO navigato. Intervistando 1.700 Chief AI Officers, Chief Data Officers e senior data leader in 27 paesi e 19 settori, il colosso blu ha prodotto uno dei documenti più acuti sulla differenza tra leader AI e ritardatari digitali. Il takeaway non è la solita retorica sui big data: vincere non significa accumulare terabyte di informazioni, ma usare il dato giusto per ottenere l’outcome giusto. La differenza è radicale, ma raramente capita alle boardroom di confrontarla davvero.
In un mondo in cui l’IA entra in ogni angolo delle nostre vite digitali, Google ha appena dimostrato quanto possa essere sottile la linea tra utilità e invasione percepita. Un’impostazione nascosta in Gmail, poco conosciuta e sepolta sotto livelli di menu che la maggior parte degli utenti non tocca mai, ha permesso a Gemini, il sistema di intelligenza artificiale di Big G, di analizzare email e calendari per fornire funzioni intelligenti, a meno che non si fosse effettuato l’opt‑out. La keyword qui è trasparenza e ogni dettaglio mostra quanto sia fragile la percezione di controllo che gli utenti credono di avere.
La storia si ripete sempre con una certa ironia crudele. Gli Stati Uniti annunciano due modelli open weight nello stesso ciclo di notizie e invece di celebrare un presunto rinascimento della sovranità tecnologica, l’unica cosa davvero evidente è quanto il terreno si sia spostato sotto i piedi della Silicon Valley. La keyword è modelli open source e attorno a questa orbita tutto il resto, compresi i dibattiti sulla dipendenza da modelli cinesi, la tensione tra trasparenza e velocità, la corsa a recuperare un vantaggio che non è più garantito per diritto divino come ai tempi delle prime GPU Nvidia o dei supercomputer del DOE.
Il quantum computing avanza con una velocità che farebbe arrossire qualsiasi evangelista del digitale, trascinando con sé l’industria globale in un territorio che non è più soltanto un esercizio accademico. Il 2025 ha il sapore dell’anno spartiacque, quello in cui la combinazione di hardware maturo, investimenti insolitamente aggressivi e un vento geopolitico pungente ha trasformato i computer quantistici da potenziali rivoluzionatori a strumenti dalle prime conseguenze economiche tangibili. L’impressione, quasi imbarazzante per chi ha passato anni a spiegare perché i qubit erano ancora troppo fragili, è che la curva di avanzamento si sia messa a correre come se avesse qualcosa da provare.
L’ITALIA GUIDA IL DIBATTITO GLOBALE DELL’IA
Ancora due lavori italiani accettati e presentati a Melbourne, alla prestigiosa KR (Principles of Knowledge Representation and Reasoning) Conference, a Melbourne, in Australia.
E ancora una volta, l’eccellenza parla l’italiano. Il Prof. Aniello Murano, Ordinario di Informatica e Intelligenza Artificiale dell’Università degli Studi di Napoli Federico II, EurAI Fellow, ha replicato il clamoroso successo di Montréal. La KR è la Conferenza delle Conferenze per chi si occupa delle fondamenta logiche e matematiche dell’IA, in un contesto di rigore scientifico estremo.
Meta ha appena svelato SAM 3, l’ultima evoluzione del suo modello di visione artificiale della serie Segment Anything. Non è solo un aggiornamento incrementale: questa volta il salto è concettuale. Con SAM 3, non devi più cliccare o disegnare per segmentare oggetti basta dirlo con le parole.
Un’analisi su 47 000 conversazioni pubbliche di ChatGPT riportata dal Washington Post smonta una narrazione diffusa: gli utenti non usano il chatbot principalmente per essere più produttivi, ma per cercare conforto emotivo, consigli e una connessione che assomiglia più a un’amicizia digitale che a uno strumento di lavoro.
In teoria Silicon Valley vende ChatGPT come un acceleratore di efficienza, uno strumento da ufficio o da produttività personale. Nella pratica, però, emerge una realtà ben più intima. Nei dati analizzati, oltre il 10% delle conversazioni ruota attorno a temi personali: emozioni, ricorrenze affettive, riflessioni filosofiche.Gli utenti confidano al bot dettagli profondi della loro vita storie familiari, problemi relazionali, persino informazioni sensibili come email o numeri di telefono. (vedi The Washington Post)
Il video di Elon con la sua risata improvvisa, il contesto quasi surreale – un promemoria potente: anche ai confini dell’AI, un po’ di caos e ironia continuano a dominare la scena.
Ma dietro il sorriso, oggi si annuncia qualcosa di molto serio e strategico: Elon Musk insieme a Jensen Huang (il genio in camicia nera di Nvidia) hanno svelato un framework con HUMAIN per costruire data center GPU iperscalabili e a basso costo nel Regno dell’Arabia Saudita. Non si tratta di un giochetto: stiamo parlando di un’infrastruttura su vasta scala, con l’obiettivo di portare il modello Grok di xAI dentro HUMAIN ONE, la piattaforma agente di HUMAIN, per una distribuzione nazionale in Arabia Saudita.
L’industria tecnologica, pur galleggiando in un oceano di modelli linguistici titanici, continua a inciampare sulle stesse ingenuità concettuali. Più cresce il rumore attorno all’intelligenza artificiale, più diventano fragili le convinzioni collettive su cosa essa sia realmente.
Basta ascoltare le parole di Stuart Russell, uno dei pochi che ha trascorso più di quarant’anni a dissezionare l’essenza del pensiero artificiale, per accorgersi che molte delle certezze che circolano oggi non reggono nemmeno l’urto di una conversazione seria.
La keyword centrale qui è intelligenza artificiale, accompagnata dall’asse semantico di modelli linguistici e apprendimento automatico, che sembrano già suggerire quanto sia urgente riportare la discussione su un terreno meno ingenuo e più analitico. Russell avverte da tempo che le narrazioni semplicistiche non ci stanno facendo un favore, e dire che lo fa con una calma accademica da veterano del pensiero critico non ne attenua l’impatto.
Quello che molti non stanno dicendo o forse ignorano per scetticismo è che Gemini 3 Pro sembra essere stato addestrato senza usare una singola GPU NVIDIA. Secondo i post su Reddit (che bisogna sempre prendere con un pizzico di sale, ma che qui sono sorprendentemente coerenti) > “Hardware: Gemini 3 Pro was trained using Google’s Tensor Processing Units (TPUs).” Questo non è un dettaglio tecnico minore: è un manifesto architetturale.
Nano Banana Pro arriva come quei prodotti che non chiedono il permesso ma riscrivono le aspettative, un upgrade che sembra voler dimostrare quanto la generazione visiva sia ormai terreno di competizione strategica. Nano Banana Pro diventa la keyword inevitabile in questa corsa e non sorprende che l’intero ecosistema Gemini 3 venga usato come motore principale di un modello che pretende di unire controllo professionale e creatività modulare. La curiosità più intrigante è la scelta di un nome quasi infantile per una tecnologia che punta a sedurre designer e sviluppatori, come se Google volesse ricordarci che dietro i modelli più avanzati c’è sempre un pizzico di ironia da laboratorio.
Belle Marcus
In un mondo che si ostina a credere che la potenza di calcolo sia una scorciatoia verso l’intelligenza, l’idea che la vera svolta dell’AI possa arrivare dal matrimonio tra reti neurali e ragionamento simbolico appare quasi come un ritorno alle origini. John McCarthy lo aveva capito molto prima che il deep learning diventasse religione di mercato, immaginando sistemi capaci di manipolare concetti in modo rigoroso. Una visione che oggi trova nuova forza grazie alle analisi chirurgiche di Vaishak Belle e Gary Marcus, due autori che non hanno paura di puntare il dito contro il dogma dello scaling. Il loro lavoro mostra come la corsa indiscriminata al gigantismo dei modelli presenti limiti tecnici e, direi, culturali. Chi si occupa di strategia tecnologica lo vede quotidianamente: predizioni fragili, allucinazioni travestite da idee, incapacità di generalizzare al di fuori del recinto statistico addestrato. In una parola, vulnerabilità.
Oracle ha deciso di puntare tutto sull’intelligenza artificiale, e lo fa con una strategia tanto audace quanto pericolosa per il suo bilancio. Il suo colpo di scena è alimentato da enormi debiti, da un accordo mastodontico con OpenAI e da un passaggio strategico dal software “tranquillo” a un’infrastruttura cloud e AI estremamente capital intensive. Ma mentre gli hyperscaler corrono, gli investitori scrutano con crescente nervosismo.
Le azioni Oracle sono scese del 25 percento in un solo mese, quasi il doppio del crollo di Meta, cancellando più di 250 miliardi di dollari di guadagni precedenti. Il mercato obbligazionario non è meno preoccupato: un indice che tiene traccia del debito di Oracle ha registrato un calo del 6 percento da metà settembre, peggio di quello dei suoi concorrenti.
eDonald Trump sembra pronto a firmare un ordine esecutivo già da venerdì che ribalterebbe lo scenario della regolamentazione sull’intelligenza artificiale negli Stati Uniti. L’idea non è sofisticata: mettere il governo federale al centro del controllo sull’AI, delegittimando le leggi statali che, secondo l’amministrazione, intralciano lo sviluppo industriale. Nel progetto trapelato, il Dipartimento di Giustizia istituirebbe un’“AI Litigation Task Force” un’unità il cui “unico compito” sarebbe fare causa agli Stati che approvano norme ritenute ostili al business dell’IA.