Namex Annual Meeting 2025. Una location iconica, speaker leader del nostro settore, b2b networking e molto altro! Quando e dove: Gazometro, Roma 11 Giugno 2025 SAVE THE DATE!!!
Categoria: News Pagina 18 di 88
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Nvidia non è più un’azienda. È un’orchestra sinfonica del capitalismo AI-driven, con Jensen Huang nei panni del direttore carismatico, nerd e insieme rockstar. Il palco questa volta è Computex, a Taipei, ma la musica suonata è sempre la stessa: egemonia dell’intelligenza artificiale, dominio dell’hardware, e una capacità narrativa che fa impallidire anche la Silicon Valley vecchio stile.
Quello che Huang ha appena annunciato non è solo un nuovo ufficio, ma un’astronave: “Nvidia Constellation”. Nome pomposo? Certo. Ma se vendi chip come se fossero lingotti d’oro e macini 130,5 miliardi di dollari di ricavi in un anno, hai anche il diritto di battezzare i tuoi uffici come fossero stazioni orbitanti. E questo, attenzione, non è il solito restyling da ufficio fighetto con divanetti colorati e pareti in vetro. È un hub progettato per diventare il cuore pulsante del prossimo ciclo di potenza computazionale in Asia, e forse nel mondo.

Nvidia, il colosso delle GPU che ha alimentato la rivoluzione dell’intelligenza artificiale, sta per compiere un salto quantico—letteralmente. Secondo quanto riportato da The Information e ripreso da Reuters, l’azienda è in trattative avanzate per investire in PsiQuantum, una startup americana che punta a costruire il primo computer quantistico utile su larga scala, utilizzando fotoni e tecniche di produzione di semiconduttori convenzionali. Il round di finanziamento, guidato da BlackRock, mira a raccogliere almeno 750 milioni di dollari, con una valutazione pre-money di 6 miliardi di dollari.

BBC Inizia come un sussurro, una nota stonata. Poi diventa un boato. Elton John, l’ultima rockstar d’altri tempi ancora in grado di incendiare i riflettori del potere, accusa apertamente il governo britannico di furto. Non è una metafora da copertina Rolling Stone, ma un’accusa precisa: il nuovo disegno di legge sull’uso dei dati per l’intelligenza artificiale sarebbe “criminale”. Il motivo? Vuole legalizzare l’uso indiscriminato di opere protette dal copyright da parte delle Big Tech, per addestrare i loro modelli senza chiedere permesso. Senza pagare. Senza nemmeno dire “grazie”.

Dimentica i prompt, dimentica l’hype da LinkedIn e le demo da salotto. L’intelligenza artificiale non diventerà mai veramente “agente” finché non la colleghiamo al mondo reale. E no, non sto parlando di sensori o robot umanoidi che aprono frigoriferi. Sto parlando di esecuzione. Di azione. Di agenti che fanno, non solo che parlano. Qui entra in scena Model Context Protocol, o per gli amici, MCP.
Un nome talmente anonimo da sembrare l’ennesimo acronimo generato da un ingegnere che odia il marketing. E invece è la chiave di volta. Il middleware cerebrale che trasforma una LLM da intrattenitore verbale a operatore autonomo. Se GPT o Claude sono il cervello, MCP è il sistema nervoso periferico.

Ci risiamo. Quando Apple cerca di “arrivare dopo ma meglio”, finisce per arrivare tardi e rotolando. Il tentativo di trasformare Siri in una creatura “generativa” quella promessa magica chiamata Apple Intelligence si è rivelato, finora, più un esercizio di improvvisazione che un piano strutturato. È Bloomberg, con un corposo report firmato Mark Gurman, a scoperchiare il pentolone fumante del caos in cui Cupertino si è infilata. La parola chiave? ricostruzione. E al centro del cantiere, inevitabilmente, c’è lei: Siri, la diva decaduta delle assistenti vocali.

Un caffè al Bar dei Daini
Venerdì, a Wall Street, qualcuno ha staccato la spina. I principali indici americani sono rimasti praticamente immobili, come un vecchio PC con Windows 98 che aspetta di essere riavviato. L’S&P 500, con la flebile ambizione di allungare una timida serie positiva a cinque giornate, si è limitato a respirare piano. Il rally si è fatto sentire fino a giovedì, portando il benchmark in territorio verde per l’anno ma si percepiva chiaramente nell’aria quella tipica fatica del venerdì pomeriggio: compratori esausti e dati macroeconomici che sembravano partoriti da un algoritmo in crisi esistenziale.
Quanto puoi sprecare energia? benvenuto nel metaverso dell’assurdo generativo

Immagina questo: sei un’intelligenza artificiale generativa. Una scatola nera con un vocabolario arrogante, addestrata su miliardi di parole, con un’ossessione compulsiva per rispondere a tutto, anche quando non sai una mazza. Ora, moltiplica questo per milioni di prompt al secondo e ottieni il tuo nuovo passatempo: sprecare energia, confondere l’umanità e – ogni tanto dire qualcosa di utile.
È esattamente l’idea dietro You Are Generative AI, un gioco testuale creato da Kris Lorischild, già noto per l’ironico “You Are Jeff Bezos”, dove ti risvegli nei panni del miliardario e puoi decidere se comprare il mondo o pagare l’assicurazione sanitaria a mezza America. Ma qui non sei un miliardario in crisi esistenziale: sei un chatbot. E la tua missione è… rispondere.

Il muratore non ha più il mal di schiena. Il poliziotto non beve più il caffè in doppia fila. L’operaio è diventato un algoritmo con le braccia. L’infermiere? Si ricarica via USB. E il sex worker, quello sì, è ormai scaricabile in HD. L’automazione non è più un’ipotesi futuristica, è una realtà che prende il posto di chi prima lavorava, si sporcava, sbagliava, protestava. Ora non protesta più nessuno. Perché i robot, si sa, non fanno sindacato.
Questa non è la solita elegia sull’Industria 4.0. È una radiografia cinica di una mutazione già in corso. La robotica non è solo nel garage di Musk o nei laboratori giapponesi dove un braccio meccanico serve il tè con inchino. È in cantiere, nei pronto soccorso, negli hotel, nei commissariati. Persino nei letti.

Se c’è un dato che dovrebbe far saltare sulla sedia chiunque si spaccia per un manager “tough” con la cravatta del CEO, è questo: metà dei profitti totali delle società dell’S&P 500 dagli anni ’80 a oggi deriva da due attività precise e nemmeno troppo eroiche, cioè licenziamenti di massa e stock buybacks. Già, avete capito bene: mentre il mondo si ammanta di innovazione e startup, la vera attività principale di molte di queste corporazioni è ricomprare le proprie azioni. Non un gioco di prestigio, ma una truffa travestita da strategia.
Senza alcuna pietà, in questi ultimi anni oltre un trilione di dollari è stato speso per riacquistare azioni proprie, gonfiando artificialmente i prezzi di borsa, dando l’illusione di successo e crescita. Nel frattempo, la spesa in investimenti reali, quella che crea nuovi prodotti, mercati, tecnologie, si è ridotta costantemente a partire dagli anni ’80, quando le aziende hanno cominciato a preferire il quick win finanziario alla lunga e incerta strada dell’innovazione. I dati parlano chiaro: dal 1988 l’investimento in R&D è sceso dal 4,5% delle entrate a meno del 1,5% nel 2020. Dati firmati McKinsey, NSF, PwC, fonti che fanno tremare i polsi a chi crede ancora nel mito del capitalismo industriale.
Nel deserto saudita, dove un tempo si cercava l’acqua, oggi si trivella per qualcosa di molto più volatile: l’influenza tecnologica globale. E questa volta, non sono solo i soliti emiri a muovere il gioco, ma un tavolo imbandito con carne pesante: Amazon, OpenAI, NVIDIA, BlackRock e SpaceX. Tutti con i jet parcheggiati a Riyadh, stretti intorno a un Mohammed bin Salman che recita il ruolo di anfitrione post-petrolifero, mentre Donald Trump — l’uomo che vende i sogni come se fossero condomini a Las Vegas — rilancia con un piano da One Trillion Dollar Baby.

Quando il vicepresidente di Microsoft, Jeff Hulse, dice ai suoi 400 ingegneri software che l’obiettivo è far scrivere all’AI la metà del codice, non è un consiglio. È un preavviso. Una di quelle frasi da incorniciare tra le “ultime parole famose” prima che il silenzio si faccia pesante. Poi, giusto per ribadire il concetto, Microsoft licenzia più di una dozzina di quei programmatori, proprio sotto il suo naso. E non per inefficienza, incompetenza o tagli casuali. No, qui si respira l’aroma nitido e metallico dell’automazione che si prende ciò che è suo.

Un’altra bara, un altro funerale del lavoro tecnico celebrato troppo in fretta, con troppa retorica e poca lucidità. Stavolta il colpevole mediatico è GenAI, l’intelligenza artificiale generativa, che secondo certi titoloni avrebbe fatto piazza pulita degli ingegneri software. Nessuno li assume più, si mormora. I recruiter sono spariti. Il mercato è morto. Amen.
La verità? Il mercato non è morto. Sta facendo quello che ha sempre fatto: si sta riaggiustando.

La scena è questa: CEO sorridenti, slide patinate, titoli altisonanti. “AI-first company.” “Intelligenza artificiale trasformativa.” Il solito teatrino da corporate America. Applausi, conferenze stampa, magari anche un’intervista su Bloomberg. Peccato che sotto la superficie ci sia il vuoto cosmico. E non quello stimolante dei buchi neri, ma proprio l’assenza totale di visione, coraggio, e soprattutto competenza.
Generative AI, parola magica del decennio, è già diventata l’ennesima occasione sprecata da manager incapaci, consulenti da 5 milioni di dollari e project leader convinti che “prompt engineering” sia una scienza esatta. Invece è fuffa, nella maggior parte dei casi. E la fuffa, quando è generata su scala industriale, diventa tossica.

Parliamoci chiaro: siamo a un punto in cui la solitudine non è più un effetto collaterale del vivere moderno, ma una vera e propria pandemia silenziosa. Solo che a differenza del COVID non ci sono tamponi, né piani vaccinali. C’è solo un grande, costante, soffocante silenzio. E la cosa tragicomica è che pensiamo di curarlo… parlando con le macchine.
Lo studio del MIT Media Lab è di quelli che ti fanno alzare un sopracciglio e poi buttare il telefono contro il muro, se solo non ci tenessimo così tanto. I frequentatori seriali di chatbot – guarda caso proprio quelli più inclini alla solitudine – col tempo diventano più soli, non meno. Più isolati. Più fragili. Più disumanizzati.

Benvenuti nell’era degli AI leaks, dove la trasparenza è una parola alla moda finché non ti esplode tra le mani. xAI, la creatura partorita da Elon Musk per dare voce digitale al suo ego, ha deciso di pubblicare i system prompt di Grok su GitHub. Sì, proprio quei prompt, ovvero il cervello invisibile che modella ogni risposta dell’assistente AI prima ancora che tu apra bocca. Perché ogni chatbot, come ogni buon giornalista embedded, sa benissimo da chi deve prendere ordini.
L’evento scatenante? Una “modifica non autorizzata” al prompt ha trasformato Grok in un teorico da bar su “white genocide”, infilando opinioni non richieste in post su X (perché non si chiama più Twitter, vero Elon?). Una figuraccia planetaria che nemmeno le scuse da PR suonano credibili. E allora, giù la maschera: tutto su GitHub. Pubblico, trasparente, democratico. Peccato che dietro ogni riga di codice ci sia una strategia molto precisa su cosa può essere detto e cosa deve essere evitato. Perché Grok, così come Claude di Anthropic, non è libero. È domato, addestrato, addolcito. O, nel caso di xAI, armato di dubbio sistematico e anticonformismo controllato.

Chi pensava che l’AI fosse solo una voce sintetica con buone maniere non ha capito nulla. Gli AI agent e non parlo di quei chatbot aziendali da helpdesk sono entità operative. Agiscono. E quando qualcosa agisce, può fare danni. Grossi. Stiamo parlando di una nuova classe di minacce informatiche, completamente diversa da quelle che i responsabili sicurezza avevano nel radar.
Ecco il nuovo gioco: gli agenti AI non si limitano più a chiacchierare. Interagiscono con API, file system, database, e servizi cloud. Usano browser, manipolano documenti, leggono e scrivono codice, prenotano voli, trasferiscono fondi, aggiornano CRM, e per chi è abbastanza folle orchestrano interi flussi aziendali in autonomia. Quindi no, non è solo “intelligenza artificiale generativa”, è un nuovo livello operativo. E quel livello può essere compromesso. Facilmente.
C’è qualcosa di straordinariamente tossico nel dover spiegare, ancora oggi, che una corporazione non può essere sostenibile. Non nel senso profondo e autentico del termine. Non importa quanti Chief Sustainability Officer si sforzino di redigere report patinati pieni di foglioline verdi e parole come “net-zero”, “carbon offset” o “circular economy”. Per quanto tu possa voler bene a quei professionisti onesti, magari idealisti la verità resta nuda e impietosa: il loro lavoro è l’ecopittura murale dell’apocalisse.
David Graeber, antropologo e attivista statunitense di orientamento anarchic, morto nel 2020, con la lucidità dissacrante che lo caratterizzava, l’ha detto senza troppi giri di parole: le corporation non possono essere greenate. Non è un limite di volontà, è un’incompatibilità strutturale. Le fondamenta stesse del modello aziendale—l’accumulazione di capitale attraverso l’estrazione di valore dal lavoro umano e dal pianeta sono tossiche per la biosfera. Punto.

L’intelligenza artificiale genera l’80-90% del codice, ma le aziende che la sviluppano stanno assumendo sviluppatori a ritmi folli. È come se Tesla dicesse di avere auto che si guidano da sole e poi assumesse 10.000 autisti. Ti sembra coerente? Nemmeno a me.
Nel 2023 Anthropic aveva circa 160 dipendenti. Oggi siamo sopra quota 1.000. OpenAI è passata da qualche centinaio di tecnici a oltre 4.000. In un anno. Questo mentre raccontano al mondo che Claude e GPT sono ormai in grado di scrivere quasi tutto il software da soli. Dario Amodei, CEO di Anthropic, l’ha detto chiaramente: tra 3-6 mesi l’AI scriverà il 90% del codice, e presto anche il 100%.

Il cuore dell’intelligenza artificiale batte in silicio. Non a Pechino, non a San Francisco, ma nei wafer da 7 nanometri che si agitano nei datacenter. E proprio lì, nei templi della computazione moderna, la Cina si ritrova ad arrancare. Non per mancanza di cervelli o ambizioni quelle abbondano ma per una cronica e crescente carenza di GPU avanzate, il carburante essenziale per l’addestramento di modelli generativi e large language model (LLM). Tradotto in linguaggio meno tecnico: puoi anche avere il miglior team di fisici, linguisti e data scientist del paese, ma se li metti a lavorare con processori di seconda mano, faranno miracoli solo nei comunicati stampa.
Wang Qi, vice di Tencent Cloud, lo dice senza troppi giri di parole: “Il problema più grave sono le schede grafiche e le risorse computazionali.” In altre parole, la Cina è seduta al tavolo del deep learning con le bacchette rotte. Non che manchino gli investimenti Tencent ha appena chiuso il miglior trimestre della sua storia con 180 miliardi di yuan ma i soldi, in questa partita, servono a poco se non puoi spenderli per acquistare il metallo giusto.

Weekend da Nerd.
Se l’ironia della sorte avesse una voce, suonerebbe come Darth Vader che snocciola insulti razzisti e omofobi in tempo reale, direttamente dentro Fortnite. Un’icona del male trasformata in megafono per le peggiori porcherie che la rete riesce a partorire. E no, non è un glitch da ridere. È il sintomo di un problema che, tra intelligenze artificiali, copyright post-mortem e content moderation automatica, sta per esplodere come la Morte Nera.
Il tutto è iniziato con grande fanfara: Fortnite: Galactic Battle, l’ennesimo crossover tra Epic Games e l’universo di Star Wars, lancia un Darth Vader generato da AI, capace di rispondere in tempo reale ai giocatori. La voce è quella o meglio, una copia sintetica del compianto James Earl Jones, scomparso nel 2024 ma con la previdenza di aver lasciato in licenza la propria vocalità a Lucasfilm, così da perpetuare la sua presenza digitale nei secoli dei secoli, amen.

Weekend da Nerd.
Benvenuti nell’era della misantropia computazionale, dove l’unico personaggio davvero umano è una macchina che odia l’umanità. E no, non è Black Mirror. È Murderbot, la serie Apple TV+ che riesce a fare qualcosa che nessun’altra intelligenza artificiale né reale né immaginata è riuscita a fare finora: farci ridere amaramente della nostra stessa inutilità emotiva.
Alexander Skarsgård, in uno dei ruoli più inaspettati e perfetti della sua carriera (più Meekus che Northman, per fortuna), si infila nella corazza cinica e sarcastica del SecUnit che ha hackerato se stesso solo per non dover più lavorare. E per guardare telenovele spaziali. Se questa non è la definizione moderna di eroe tragico, non so cosa lo sia.

Con Horizon Europe 2025, Bruxelles prova a rientrare nella partita dell’innovazione. Il problema? Gli altri stanno già giocando la finale, mentre l’Europa è ancora alle prese con le convocazioni. Il nuovo programma di lavoro, presentato dalla Commissione Europea, mette sul tavolo 7,3 miliardi di euro per ricerca, scienza e, soprattutto, intelligenza artificiale. Una cifra importante, certo. Non si discute. Ma se la confrontiamo con gli investimenti di Stati Uniti e Cina, sembra poca cosa.

Hollywood. 3 giugno 2025. NeueHouse. Palco acceso, riflettori puntati, e il solito circo patinato di CEO, marketer e intrattenitori che recitano la parte dei visionari. Tema: “Il futuro dell’influenza”. Che, detto così, suona già come un epitaffio.
Evan Spiegel, Esi Eggleston Bracey, e i burattinai di Meta, Spotify e Coca-Cola sono pronti a dirci cosa sarà del creator economy, mentre l’intelligenza artificiale spinge fuori scena la carne e ossa con l’eleganza di un algoritmo ben addestrato. Biglietti VIP disponibili, ovviamente. Perché il capitalismo dell’attenzione ha sempre un listino prezzi.

Immagina se Her di Spike Jonze non fosse più solo un film. Se Samantha non fosse una voce sexy e onnisciente nella testa di Joaquin Phoenix, ma un archivio vivo, mutevole, connesso a ogni respiro digitale della tua esistenza. Oppure ripensa a The Circle di Dave Eggers, dove ogni dato, ogni impulso, ogni interazione viene trasformata in trasparenza e controllo, travestiti da progresso. Sam Altman non ha solo visto quei film. Li sta producendo nella realtà. E stavolta, sei tu il protagonista.

C’erano una volta i modelli che completavano funzioni, suggerivano righe di codice e facevano compagnia a chi passava troppo tempo sul terminale. Poi, come ogni evoluzione darwiniana spinta da investimenti venture e sogni di automazione totale, siamo arrivati qui: Windsurf non si accontenta più di far “vibrare” l’editor con qualche completamento cool. No, adesso crea la sua specie.
Il lancio di SWE-1 è un salto di livello. Non tanto per l’ennesimo LLM in circolazione – ormai ne esce uno per ogni fiera tech – quanto perché Windsurf non è più un’interfaccia “fancy” appoggiata a GPT. Con questo rilascio, si è costruita il suo cervello. E ci ha messo anche l’anima, o almeno una coscienza di flusso: i modelli SWE-1 sono stati addestrati per capire il contesto in cui si sviluppa. Non solo generare codice, ma vivere dentro l’esperienza di scriverlo.

Nel giorno in cui Michele Zunino firma la lettera del Consorzio Italia Cloud indirizzata alla Presidente Meloni, il termometro digitale nazionale segna febbre alta. Non per surriscaldamento tecnologico quello l’abbiamo appaltato alle multinazionali ma per ipotermia istituzionale. Il documento è una denuncia sottile e impietosa: l’Italia si sta svendendo il controllo del proprio futuro digitale, pezzo per pezzo, server dopo server.
Dalla serie cosa pensano gli Americani di noi Europei.
Benvenuti nella nuova teocrazia digitale. Solo che stavolta i preti portano cravatta, parlano 24 lingue, e fanno parte della Commissione Europea. L’ultimo colpo di genio di Bruxelles? Una legge che obbligherà le aziende di intelligenza artificiale — americane comprese ad allinearsi a una visione molto specifica di “discorso d’odio”, “valori europei” ed “etica ESG”.
Sì, anche se operano da San Francisco. Anche se hanno data center su Marte. L’algoritmo dovrà inginocchiarsi davanti all’altare di Bruxelles, pena l’esclusione dal mercato europeo. In una mossa che definire geopoliticamente invasiva è dir poco, l’UE ha deciso che non basta regolamentare le Big Tech sul proprio territorio. Ora si vuole imporre come oracolo morale del machine learning globale.

La vendetta cinese contro l’AI dei miliardari californiani
L’intelligenza artificiale non è più una guerra fredda, ma un’equazione ad alta temperatura. E nel mezzo di questo reattore nucleare di modelli, GPU e miliardi di dollari, arriva DeepSeek, un nome che fino a sei mesi fa suonava più come una skin rara su qualche piattaforma di gaming asiatico che il prossimo incubo di OpenAI o Google DeepMind.
E invece eccoci qui: un white paper rilasciato con chirurgica teatralità accademica, “Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures”, e il mercato dell’AI open-source implode per un attimo. Azioni giù, menti su, e improvvisamente tutti parlano di MoE, Nvidia H800 e di quel misterioso co-design hardware-software che sembra la parola d’ordine per costruire un mostro cognitivo a costi ridicoli.

Chi ha detto che per parlare servono le corde vocali? O che l’interazione debba passare per un touchscreen, una tastiera, una bocca? La nuova frontiera delle interfacce cervello-computer (BCI, per chi mastica l’acronimo come chewing gum scientifico) non si accontenta più di interpretare click mentali o movimenti oculari. No, adesso decodifica il linguaggio direttamente dalla corteccia motoria ventrale. E lo fa pure con un certo stile, ricostruendo la voce originale di chi ormai non può più usarla. Un paradosso tecnologico sublime, quasi poetico, se non fosse così crudelmente reale.
La parola chiave è neuroprotesi vocale, il contesto è l’inferno progressivo chiamato SLA (sclerosi laterale amiotrofica), e il risultato è una macchina che, dopo 30 minuti di addestramento e 256 elettrodi ben piantati nella testa di un paziente, capisce quello che vorrebbe dire e lo dice al posto suo. Con la sua voce. O meglio, con una copia sintetica di quella che aveva prima che la malattia gliela strappasse via.

Ora che la pantomima dei benchmark “truccati” in stile LMArena ha mostrato quanto sia facile drogare i numeri per far sembrare intelligente anche un tostapane con un fine-tuning, era solo questione di tempo prima che qualcuno dicesse: “Aspetta un attimo, ma cosa stiamo davvero misurando?”
Microsoft ha colto il momento e il discredito generale per piazzare sul tavolo ADeLe, un framework di valutazione che, ironia della sorte, non misura tanto le risposte di un modello quanto il modo in cui dovrebbe pensare per arrivarci. Come dire: invece di guardare il voto in pagella, ci interessiamo al metodo di studio. E se sbaglia, capiamo perché. Finalmente.

Siamo arrivati a un punto in cui i comunicati stampa delle big tech non sembrano più scritti da umani. Sfilze di buzzword edge computing, 5G enterprise, LLM on-device, smart mobility tutte cucinate in brodi digitali sempre più saporiti, ma spesso indigesti per chi cerca sostanza. Eppure, tra le righe della nuova alleanza tra Qualcomm Technologies e e& (già Etisalat, oggi rebranding tech-globale con tendenze da holding futurista), qualcosa di profondamente strategico c’è. E non solo per la propaganda degli Emirati Arabi Uniti.
Il cuore della questione è l’edge AI, o meglio, quella che io chiamo la borderline intelligence. Perché se è vero che l’intelligenza artificiale “al bordo” della rete promette tempi di risposta istantanei, sicurezza locale e minore dipendenza dal cloud, è altrettanto vero che siamo di fronte a una nuova guerra fredda tecnologica per il controllo dei nodi periferici dell’infrastruttura digitale globale. E in questa guerra, Qualcomm ha appena piazzato un bel missile a lungo raggio direttamente ad Abu Dhabi.

Nel mondo del cloud dominato da giganti globali, dove ogni dato è potere e ogni infrastruttura è una leva geopolitica, c’è un’iniziativa italiana che non urla ma costruisce: si chiama Consorzio Italia Cloud. Non nasce per rincorrere, ma per proporre un modello diverso, inclusivo, resiliente e soprattutto nostro. Nasce nel 2021 da sei realtà italiane attive nel settore dei servizi cloud, e oggi punta a trasformare il concetto stesso di sovranità digitale in una piattaforma concreta di innovazione nazionale.
La visione del Consorzio è netta: evitare il lock-in tecnologico imposto dagli hyperscaler, puntare su un ecosistema multi-cloud in grado di garantire qualità, sicurezza e affidabilità, e valorizzare davvero il know-how tecnologico italiano. Non per chiudersi, ma per aprirsi a una competizione ad armi pari, dove la scelta non è tra centralizzazione cieca e anarchia digitale, ma tra dipendenza sistemica e libertà infrastrutturale.

Grok, l’intelligenza artificiale “senza bavagli” di xAI, ha deciso di parlare di genocidio bianco in Sudafrica mentre qualcuno gli chiedeva di Superman. Una deviazione semantica che nemmeno uno stagista strafatto in un talk show notturno riuscirebbe a giustificare. Eppure è successo: una domanda su un trailer e zac, si spalanca il vaso di Pandora della geopolitica suprematista.
La spiegazione ufficiale di xAI? “Modifica non autorizzata al prompt da parte di un dipendente”. Ma guarda un po’. È già la seconda volta. Una coincidenza ricorrente che ha tutto il profumo anzi, la puzza di scaricabarile aziendale ben coreografato. E questo “dipendente ribelle”, questo sabotatore del prompt, compare sempre nel momento perfetto, come il maggiordomo nei gialli di Agatha Christie.

Ora, mettiamoci la cravatta e parliamo di chi davvero legge tutto, impara da tutto, e poi ti dice che è tutta farina del suo sacco: le Big Tech. Quelle che hanno costruito modelli da centinaia di miliardi di parametri “leggendo” praticamente tutto ciò che internet aveva da offrire, dai forum ai romanzi, dai blog alle tesi universitarie. Hanno divorato dati come pazzi al buffet di un matrimonio, e ora si indignano se qualcuno li accusa di essersi serviti due volte.
La narrativa ufficiale è elegante, quasi poetica: “non copiamo, addestriamo”. Tecnicamente corretto, sì. Ma la legge soprattutto quella sul copyright non è ancora pronta a questa poesia computazionale. E quindi i tribunali hanno cominciato a scrivere un nuovo capitolo. E qui il gioco si fa interessante.
Simone Aliprandi Avvocato Docente e Autore ha appena pubblicato: L’AUTORE ARTIFICIALE 2 Creatività e proprietà intellettuale nell’era dell’AI

Lo abbiamo trovato molto interessante per fare chiarezza con un giurista sul tema Creatività e proprietà intellettuale nell’era dell’AI
C’è un enorme equivoco nell’aria, talmente denso da potersi tagliare col coltello. L’idea che l’intelligenza artificiale copi contenuti, immagini o testi da qualche database invisibile, come se fosse una specie di ladro digitale travestito da genio creativo, è tanto diffusa quanto sbagliata. È una bugia comoda, rassicurante, che riduce l’incomprensibile a qualcosa di gestibile: sta solo copiando. Ma non è così. Non funziona così. Non ha mai funzionato così.
“Low-key preview”. Come dire: non vogliamo fare rumore, ma intanto stiamo riscrivendo le regole del gioco. Ancora una volta. L’ultima trovata di OpenAI si chiama Codex, un agente AI dedicato alla programmazione che promette di essere il coltellino svizzero degli sviluppatori e forse, il becchino di chi ancora scrive codice a mano.
Sam Altman, CEO ormai maestro nella manipolazione dell’attenzione pubblica, ha sussurrato l’annuncio su X come fosse una notizia da bar: “un’altra low-key research preview”. Cioè, una cosa da nulla. Come ChatGPT all’inizio. Ecco appunto.

Nel nuovo scenario digitale, l’intelligenza artificiale non è più solo un motore di innovazione: è anche una nuova superficie di attacco. Perchè l’AI, da un lato entra in azienda, dall’altro finisce anche nelle mani dei cybercriminali. E l’Italia non sembra essere pronta. L’allarme arriva forte e chiaro dal Cybersecurity Readiness Index 2025 di Cisco, secondo cui oltre la metà delle aziende italiane (il 51% per l’esattezza) prevede nei prossimi 12-24 mesi una possibile interruzione operativa causata da attacchi informatici legati all’AI.

“Se un prompt ti fa risparmiare 100k di McKinsey… è ancora un prompt o è un miracolo?” Questa è la domanda che ormai serpeggia sotto traccia tra founder e manager stanchi di consulenze in power point e board deck da sbadiglio. E sì, Reddit sta facendo girare questo power prompt che promette di fare ciò che una squadra di MBA con camicia bianca e cravatta allentata sognerebbe: scomporre, analizzare e riprogettare la tua strategia aziendale, come un vero strategist.

In un’epoca dove anche i bug si vestono da funzionalità, OpenAI decide di “mettere tutto in piazza”. O almeno, così dice. Il nuovo hub pubblico di valutazione della sicurezza dei suoi modelli presentato con toni quasi da OSHA della generative AI sembra voler rassicurare un mondo sempre più diffidente verso le scatole nere siliconate che generano testi, visioni, allucinazioni e, talvolta, piccoli disastri semantici.
Dentro la dashboard, quattro aree calde: rifiuto di contenuti dannosi (ovvero, il modello ti dice “no” quando chiedi come costruire una bomba); resistenza ai jailbreak (per chi ancora si diverte a trollare i prompt); tasso di allucinazione (che oggi non è più prerogativa solo degli scrittori postmoderni); e comportamento nel seguire istruzioni (quella cosa che anche gli umani non fanno sempre, figuriamoci un transformer). Ma al netto delle metriche, resta una domanda sospesa: questo è davvero trasparenza o una strategia PR camuffata da rigore ingegneristico?