Categoria: News Pagina 4 di 123
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Il dibattito sulla sicurezza dell’intelligenza artificiale non è più confinato a laboratori accademici o a discussioni di nicchia tra sviluppatori. L’argomento del jailbreak degli LLM ha aperto una finestra preoccupante sulla fragilità dei sistemi di controllo attuali, mettendo in luce che la promessa di un’intelligenza artificiale “allineata” ai valori umani è ancora molto lontana. La narrativa dominante, che dipinge i modelli come innocui finché vincolati da prompt guards, si sgretola davanti alle tecniche di Controlled-Release Prompting, che riescono a bypassare le restrizioni con una facilità quasi teatrale. La domanda non è più se, ma quanto rapidamente queste vulnerabilità verranno sfruttate in contesti reali.
Quando si parla di intelligenza artificiale, il confronto con l’uomo è quasi un riflesso pavloviano. “Quanto sei bravo rispetto a un essere umano?” è la domanda che domina discussioni, conferenze e articoli. Harvard, con il suo approccio chirurgico, ha deciso di fermarsi un attimo e porre la domanda critica: “Quali umani esattamente?”. La differenza sembra ovvia, ma è raramente affrontata. Non siamo tutti uguali. Abbiamo stili di pensiero diversi, valori differenti, framework morali variegati e modi distinti di risolvere problemi.
Ho scoperto qualcosa che definisco un “colpo di genio nerd”: MemVid, una libreria open-source che trasforma milioni di chunk testuali in un unico file .mp4 e permette ricerche semantiche in meno di 100 ms. Sì, hai letto bene: un video che funziona come database semantico. Se sei stanco dei costi infrastrutturali dei vector DB, questo è uno spunto che ti farà alzare un sopracciglio (o due).
All’origine c’è l’idea: usare i codec video non solo per immagini, ma per memorizzare dati testuali strutturati, sfruttando la sorprendente efficienza con cui i codec (AV1, H.265, ecc.) comprimono pattern visivi ripetitivi. MemVid è già su GitHub con licenza MIT. Lo trovi su GitHub.
C’è qualcosa di inquietante nel rendersi conto che la voce che stai ascoltando potrebbe non appartenere a un essere umano. Non è un trailer di Black Mirror, è la realtà. Una nuova ricerca ha dimostrato che la maggior parte delle persone non è più in grado di distinguere tra una voce reale e una generata dall’intelligenza artificiale. Il confine tra naturale e sintetico si è dissolto, e il nostro cervello sembra essersi già arreso.
Il rapporto State of AI 2025 è finalmente disponibile, e come ogni anno, offre uno spunto per riflettere sullo stato dell’arte dell’intelligenza artificiale. Quest’edizione, co-redatta dai principali ricercatori del settore, evidenzia tendenze emergenti, sfide geopolitiche e innovazioni tecnologiche che stanno plasmando il panorama dell’AI.

Questa estate il concetto l’avevo sentito al convegno IA e Parlamento, “Umanità in equilibrio tra robot, Intelligenza artificiale e natura” Lectio magistralis di Maria Chiara Carrozza, di cui vi abbiamo parlato, questi giorni mi sono imbattuto in un bellissimo post esplicativo di Rodney Brooks qui il POST. C’è un equivoco gigantesco che aleggia nelle boardroom della Silicon Valley e nelle conference call dei fondi di venture capital. L’idea che i robot umanoidi stiano per imparare la destrezza.
Una convinzione che ha già bruciato miliardi di dollari, come se la fisica, la neurobiologia e la complessità del corpo umano potessero essere emulate da una rete neurale con un paio di dataset ben etichettati. La realtà è che i robot umanoidi non impareranno la destrezza nel senso umano del termine, non oggi, non domani e probabilmente non nel prossimo decennio. E no, non basterà un aggiornamento software di Tesla Optimus o un nuovo modello addestrato con reinforcement learning per cambiare questa semplice verità.
Quando parliamo di supercluster AI, la narrativa comune riguarda la pura potenza di calcolo, ma chi pensa che il mondo dell’intelligenza artificiale sia solo una questione di teraflop dimentica un dettaglio cruciale: la memoria ad alta larghezza di banda. Senza quella, anche il più impressionante arsenale di GPU rischia di diventare un giocattolo costoso. Huawei, Nvidia e AMD hanno appena alzato l’asticella con le loro nuove piattaforme di punta, progettate per addestrare modelli a trilioni di parametri e gestire workload che farebbero impallidire un data center tradizionale. Ogni strategia riflette la filosofia del produttore, mostrando visioni radicalmente diverse di come l’AI debba scalare.

Se Jeff Bezos ha annunciatola scorsa settiman all Italian Tech WeeK l’intenzione di lanciare data center nello spazio, la proposta dei ricercatori cinesi va oltre: immaginano un’infrastruttura satellitare globale condivisa, alimentata dall’intelligenza artificiale, per offrire servizi in tempo reale a tutti gli abitanti della Terra, evitando il sovraffollamento pericoloso dello spazio.
Nei corridoi dell’innovazione, l’annuncio TX-GAIN dà un sobbalzo: il MIT, per bocca del suo Lincoln Laboratory Supercomputing Center (llsc), proclama un traguardo che pare uscito da un sogno da nerd. Un sistema “next-generation” destinato non ai giochi, ma al cervello artificiale, capace di 2 quintilioni di operazioni al secondo e già consacrato come il supercomputer ai accademico più potente degli Stati Uniti.
Non è solo un’autocelebrazione da istituto prestigioso. Dietro il nome TX-GAIN (Tx-Generative AI Next) c’è una visione: un’AI che non si limita a riconoscere immagini, classificare dati, predire valori. Vuole generare — contenuti, strutture, simulazioni, modelli in contesti che vanno dalla fisica avanzata alla biologia, dalla difesa alla meteorologia.

Stay tuned!
L’Europa è un continente che ama definirsi antico ma che, di tanto in tanto, sogna di rinascere come se potesse farlo con un semplice bando di ricerca. L’ultima incarnazione di questo sogno ha la voce di Giorgio Parisi, fisico teorico, premio Nobel e una delle menti più lucide che l’Italia abbia mai espresso. Il suo progetto di un Polo Europeo dell’Intelligenza Artificiale è più di una proposta accademica, è un manifesto politico in forma scientifica. Parisi non parla di fondi o bandi, parla di sovranità. In un continente che da anni confonde la regolamentazione con la strategia, la sua visione suona come un invito brutale alla realtà.
L’idea è semplice e, per questo, quasi rivoluzionaria. Creare un centro multidisciplinare, pubblico e indipendente, capace di federare le competenze europee sull’intelligenza artificiale, come il CERN fece nel 1954 per la fisica delle particelle. Quella volta, l’Europa usciva distrutta da una guerra. Oggi esce distrutta da vent’anni di frammentazione digitale. La differenza è che allora si costruì una visione comune, oggi si preferisce costruire task force temporanee, convegni infiniti e piani strategici che evaporano al cambio di legislatura.
OpenAI ha deciso che è arrivato il momento di affrontare la questione più scivolosa dell’intelligenza artificiale: il bias AI. Dopo anni di accuse, di discussioni infinite su Twitter (o su X, se vogliamo fingere che il rebranding abbia funzionato) e di polemiche tra conservatori e progressisti, la società guidata da Sam Altman sostiene che GPT-5 sia il modello più neutrale mai creato. Una dichiarazione che suona più come un proclama politico che come un risultato tecnico, ma tant’è. L’azienda ha testato il modello con centinaia di domande volutamente tendenziose e sostiene di aver ridotto il pregiudizio linguistico del 30% rispetto ai modelli precedenti. Nel mondo dell’intelligenza artificiale neutrale, questo suona quasi come la scoperta del fuoco.
Intelligenza artificiale e bias di genere: quando l’algoritmo decide se essere prudente o coraggioso
Quando l’intelligenza artificiale smette di imitare l’uomo e comincia a imitarne i pregiudizi. È successo di nuovo, questa volta sotto il microscopio dei ricercatori dell’Allameh Tabataba’i University di Teheran, che hanno deciso di mettere alla prova il lato più “umano” dei modelli linguistici: la loro propensione al rischio. La scoperta è tanto affascinante quanto scomoda. Quando a un modello viene chiesto di “pensare come una donna”, diventa improvvisamente più cauto. Quando gli si chiede di “pensare come un uomo”, si trasforma in un piccolo giocatore d’azzardo digitale. Una lezione di antropologia algoritmica che suona come un déjà vu della storia umana, solo più veloce, più scalabile e molto più ironico.
Immaginando un mio discorso virtuale con il Prof. Mario De Caro, c’è qualcosa di ironico nel fatto che l’essere umano, dopo aver passato secoli a costruire macchine sempre più simili a sé, ora si scopra moralmente disturbato dal frutto della propria ambizione. È il paradosso che emerge dallo studio di Riley e Simon Friis, due sociologi della Harvard Business School che hanno avuto il coraggio, e forse anche un pizzico di sadismo accademico, di chiedere a quasi mille persone quanto trovassero “moralmente ripugnante” l’uso dell’intelligenza artificiale in 940 diversi mestieri.
Il risultato? Una mappa psicologica del disagio contemporaneo. Il grafico a dispersione elaborato da Friis e Riley, una piccola opera di sociologia visuale, non misura solo la diffidenza verso l’IA, ma la dissonanza cognitiva collettiva tra ciò che desideriamo e ciò che temiamo. Perché mentre predichiamo la neutralità della tecnologia, continuiamo a giudicarla come se fosse un’entità morale, dotata di intenzioni. In altre parole, diamo all’algoritmo la colpa del nostro stesso imbarazzo.
Commissione Europea “A European Strategy on Research and Technology Infrastructures” (COM(2025)497)
C’è un’Europa che non finisce nei corridoi di Bruxelles, ma che si misura in cleanroom, laboratori quantistici e telescopi sottomarini. È l’Europa delle infrastrutture di ricerca e tecnologia, il vero motore silenzioso della competitività continentale. Mentre le potenze globali si chiudono in nazionalismi tecnologici e filiere proprietarie, la Commissione Europea ha deciso di rispondere con una strategia che suona come una dichiarazione di guerra industriale: costruire la più potente rete di infrastrutture di ricerca e tecnologia del pianeta. Non per vantarsi, ma per sopravvivere.
La notizia che la Cina stia indagando su Qualcomm per presunte violazioni antitrust nella recente acquisizione di Autotalks, startup israeliana specializzata in tecnologie per la comunicazione veicolare, è più che un episodio di diritto commerciale. È il riflesso di una tensione sistemica, dove la competizione tecnologica globale si intreccia con il controllo politico sui flussi di innovazione.
Quando la State Administration of Market Regulation decide di mettere sotto la lente un colosso come Qualcomm, non si tratta solo di verificare eventuali abusi di posizione dominante, ma di inviare un messaggio chiaro: la Cina vuole restare arbitro delle dinamiche industriali dentro e fuori i suoi confini.

Un’ondata di inquietudine attraversa le sale dei C-level. Lo studio OpenAI di 29 pagine ha acceso i riflettori sul futuro prossimo in cui l’esperienza umana potrebbe non essere più il parametro di riferimento. Non si parla di fantascienza: la ricerca analizza con dati concreti come i sistemi di intelligenza artificiale affrontano compiti complessi nel mondo reale, mettendo in discussione interi paradigmi organizzativi.
Nel laboratorio delle meraviglie scientifiche moderne, l’intelligenza artificiale ha smesso di limitarsi ad analizzare dati. Ora progetta esperimenti, genera ipotesi e, con una sicurezza che a volte spaventa più di quanto affascini, suggerisce strade che i cervelli umani non avevano neanche considerato. Alcuni esperti sostengono che questa capacità accelerata di scoperta potrebbe avvicinarci a un Nobel generato da una macchina, un concetto che fino a pochi anni fa sembrava fantascienza o almeno materia da film di Spielberg con fisici pazzi e robot troppo intelligenti per il loro bene.
La notizia suona come una barzelletta da corridoio per ingegneri: basta infilare duecentocinquanta documenti avvelenati nel flusso di pretraining e il modello smette di comportarsi come un assistente utile e comincia a vomitare risposte inutili o addirittura dannose.
Questa non è iperbole, è il risultato principale di un lavoro sperimentale pubblicato da Anthropic che dimostra la sorprendente efficacia di attacchi di data poisoning su modelli che vanno da 600 milioni a 13 miliardi di parametri.
Intel ha presentato Panther Lake come il primo chip costruito su processo 18A, definendolo “il più avanzato processo di semiconduttore mai sviluppato e prodotto negli Stati Uniti”. Contemporaneamente ha mostrato l’anticipazione del processore server Clearwater Forest anche questo basato su 18A, con lancio previsto nella prima metà del 2026. Entrambi i chip e altri prodotti 18A saranno prodotti in Fab 52, il nuovo stabilimento di Intel ad Chandler, Arizona, che dovrebbe entrare in produzione ad alto volume entro fine anno secondo Intel.
Le promesse includono “catalizzatori per l’innovazione” derivanti dall’integrazione fra progettazione, processo, packaging avanzato e produzione interna. Il CEO Lip-Bu Tan ha sottolineato che gli Stati Uniti restano il fulcro della R&D e produzione avanzata di Intel un messaggio con doppio scopo politico e tecnologico.
Bernie Sanders ha lanciato un nuovo allarme sull’intelligenza artificiale, sostenendo che entro dieci anni quasi 100 milioni di posti di lavoro americani potrebbero svanire, vittime di una rivoluzione che privilegia i profitti rispetto alle persone.
Si tratterà di sistemi di workspace AI sicuri, progettati per accedere esclusivamente a documenti e informazioni interne. Gemini Enterprise di Google e Quick Suite di AWS offrono entrambi agenti AI, chatbot e flussi di lavoro automatizzati.
Immaginate: un ex primo ministro italiano diciamo Matteo Renzi, Giorgia Meloni, o chiunque abbia guidato il paese, che passi a fare il consigliere strategico per Microsoft e Anthropic dopo aver lasciato la politica. Vi racconto che cosa succederebbe, con ironia, dal punto di vista istituzionale, mediatico e tecnologico qui in Italia.
“In my role as a senior adviser, I want to help these companies ensure that this shift delivers the improvements in all of our lives that it can,”
Nel 2024, l’Australian Catholic University si è trovata al centro di una tempesta perfetta in cui l’intelligenza artificiale è passata da strumento di supporto a giudice inflessibile. Circa seimila studenti sono stati segnalati per cattiva condotta accademica, sospettati di aver usato chatbot generativi per scrivere saggi, relazioni e tesi. La percentuale di casi legati all’IA ha toccato il 90%, una cifra talmente sproporzionata da rendere evidente che non era la malafede degli studenti il problema, ma la fede cieca dell’istituzione nei confronti dell’algoritmo. È ironico notare che un’università cattolica abbia delegato il discernimento morale a una macchina che non conosce la colpa, né la grazia.
Il Senato americano ha approvato una legge che obbliga produttori di chip per intelligenza artificiale avanzata come Nvidia e AMD a garantire priorità di fornitura alle aziende statunitensi prima di esportare in Cina.
“Oggi il Senato ha agito per assicurare che i clienti americani comprese le piccole imprese e le startup non siano costretti a fare la fila dietro ai giganti tecnologici cinesi quando acquistano i chip AI più recenti,”
Elizabeth Warren, co-sponsor democratica principale
Una decisione che accende la tensione tra protezionismo tecnologico e libertà di mercato, e che molti nel settore considerano un freno all’innovazione.
Ogni Strategist di AI conosce quel momento sospeso in cui la voce del cliente si fa sottile e chiede “Quindi… avete SOC 2?”. È il secondo più lungo del meeting. Quel respiro trattenuto, quel sorriso forzato, quella risposta evasiva che non convince nessuno. Nel 2025 la sicurezza non è più una checklist per compiacere gli auditor, ma una valuta che decide chi cresce e chi resta al palo. La fiducia digitale è diventata il capitale più scarso del mercato AI, e i buyer hanno smesso di concederla sulla base di promesse.
La nuova Guida ai Prompt di OpenAI per Sora 2 è un manuale essenziale per la creatività cinematografica. Dimostra come le parole giuste possano plasmare tono, emozione e movimento della camera, trasformando un semplice testo in scene straordinarie e realistiche.
La guida insegna a scrivere prompt con intenzione e struttura, spiegando l’importanza di ogni parola, come la formulazione influenzi l’atmosfera e come anche una piccola modifica possa cambiare ritmo e prospettiva.
È una lettura fondamentale per chiunque voglia esplorare il mondo della generazione video.
GUIDA : https://cookbook.openai.com/examples/sora/sora2_prompting_guide
Una delle tendenze più evidenti del mercato infrastrutturale digitale è che la domanda spinta da intelligenza artificiale, elaborazione in cloud e generative AI sta crescendo con velocità che mette sotto pressione la capacità infrastrutturale disponibile. Secondo il report Global Data Center Trends 2025 di CBRE, “demand continues to outpace new supply” nei principali hub mondiali, e il tasso di vacanza medio dei data center è sceso a circa 6,6 %, con strette particolarmente acute nei cluster di potenza e nelle zone core.
Ma cosa significa “domanda che sorpassa capacità” in concreto? Significa che i provider iperscalatori (Microsoft, Amazon, Google, etc.) e i grandi clienti enterprise stanno correndo a prenotare spazi e potenza molto prima che le strutture siano costruite; molti progetti vengono “preleased”cioè venduti in anticipo — e le tempistiche di consegna si estendono oltre il 2027, spesso per vincoli sull’energia, permessi, interconnessioni e forniture.
Un cappucino matcha al Bar dei Daini (Greenwashing ovviamente)
Sul fronte ambientale, la grande promessa di Microsoft era: “Diventeremo carbon negative, water positive e zero waste entro il 2030”. Piani ambiziosi, necessari in un mondo che chiede conti ambientali stringenti.
Ma i numeri dicono qualcosa di più crudo: le emissioni di Microsoft sono cresciute del 23-24 % rispetto al 2020, attribuite in gran parte alla costruzione di nuovi data center (servizi cloud, AI, richieste di elaborazione). In termini pratici, i data center assorbono quasi totalmente l’impatto delle sue emissioni “Scope 2” ufficiali (cioè quelle legate al consumo elettrico).
Secondo fonti come Bloomberg, OpenAI ha portato all’attenzione dell’ufficio antitrust dell’UE (attraverso un incontro del 24 settembre con la dirigente antitrust Teresa Ribera) le “difficoltà” che l’azienda incontra nel competere su un terreno in cui Google, Microsoft e Apple detengono un controllo quasi egemonico su dati, piattaforme e infrastrutture. OpenAI lamenta che queste aziende “intrappolano” clienti (lock-in) e scoraggiano l’ingresso competitivo, mettendo a serio rischio l’innovazione.

Eric Schmidt, ex CEO di Google, ha lanciato un avvertimento che suona come un campanello d’allarme per chiunque creda ancora che l’intelligenza artificiale sia un giocattolo sofisticato ma inoffensivo. Durante un recente evento, ha dichiarato che i modelli di AI, siano essi aperti o chiusi, possono essere hackerati e manipolati per compiere azioni dannose. Non stiamo parlando di errori di codice o di bias etici, ma di qualcosa di molto più concreto: la possibilità che un modello addestrato per rispondere cortesemente alle nostre domande possa, se privato dei suoi limiti di sicurezza, imparare come uccidere una persona.
BLUE SCREEN OF DEATH
Nel mondo delle tecnologie emergenti, dove la velocità è tutto e l’innovazione è la moneta corrente, AMD e OpenAI hanno appena lanciato una mossa che potrebbe riscrivere le regole del gioco. Non stiamo parlando di una semplice partnership commerciale, ma di un’operazione finanziaria audace che potrebbe segnare un punto di svolta nella competizione tra i giganti dell’AI. La notizia è fresca: OpenAI ha siglato un accordo con AMD per l’acquisto e la distribuzione di ben 6 gigawatt di capacità computazionale, utilizzando le GPU Instinct MI450 di AMD. Ma ecco la parte che fa alzare le sopracciglia: OpenAI non pagherà in contante, ma con warrant azionari AMD, fino a un massimo di 160 milioni di azioni, a un prezzo simbolico di 0,01 dollari ciascuna. Un’operazione che potrebbe valere fino a 100 miliardi di dollari, se tutto va secondo i piani.
Il 8 ottobre 2025, la Commissione Europea ha presentato due strategie fondamentali per mantenere l’industria e la scienza europee all’avanguardia nell’intelligenza artificiale: la Apply AI Strategy e la AI in Science Strategy.
Queste iniziative mirano a rafforzare la posizione dell’Unione Europea nel panorama globale dell’IA, promuovendo l’adozione dell’IA nell’industria e nella ricerca scientifica.
Ogni tanto, nel mondo dell’enterprise software, qualcuno smette di parlare di “trasformazione digitale” e comincia davvero a farla. È raro, ma succede. Questa volta succede a NetSuite, che con NetSuite Next ha deciso di riformulare il concetto stesso di ERP, liberandolo dalla sua immagine di mastodonte contabile e restituendogli la grazia di una piattaforma viva, conversazionale, adattiva. Non più un sistema in cui l’azienda si piega alle logiche del software, ma un ecosistema che capisce il linguaggio umano e agisce come un partner digitale, non come un archivio burocratico.

