Categoria: News Pagina 13 di 123

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Villager: l’ascesa dell’arma ai‑potenziata nel penetration testing

Nel panorama della sicurezza informatica, l’emergere di Villager, un nuovo strumento di penetration testing sviluppato dalla misteriosa entità cinese Cyberspike, sta suscitando preoccupazioni tra esperti e professionisti del settore. Presentato come un framework AI‑nativo, Villager promette di automatizzare operazioni offensive complesse, riducendo significativamente la necessità di competenze umane specializzate. Tuttavia, la sua rapida diffusione e le sue potenzialità sollevano interrogativi sulla preparazione globale di fronte a minacce persistenti alimentate dall’intelligenza artificiale (AIPTs).

Nepal: la Gen Z rovescia il governo con Discord e un hashtag

Il Nepal, paese di 30 milioni di abitanti, ha assistito a un’insurrezione senza precedenti nel settembre 2025, quando la Generazione Z ha rovesciato il governo con l’hashtag #NepoKids e l’app Discord. Un movimento che ha unito giovani disoccupati, studenti e attivisti in una protesta contro la corruzione e l’elitismo politico.

Il 4 settembre, il governo ha bloccato 26 piattaforme social, tra cui Facebook, X, YouTube e LinkedIn, accusandole di non registrarsi secondo le nuove normative. La misura ha scatenato l’indignazione, soprattutto tra i giovani, che hanno visto in essa un attacco alla loro libertà di espressione. Il movimento #NepoKids è emerso come simbolo della rabbia contro i figli dei politici che ostentavano ricchezze sui social.

David Gilmour a quasi 80 anni svela tutto: album da record, concerti magici e una reunion virtuale con Waters grazie all’intelligenza artificiale

https://www.youtube.com/watch?v=zVgbRdFaen4

David Gilmour non è uno che si lascia sorprendere dalle classifiche. Eppure, quando il suo ultimo album, Luck and Strange, ha raggiunto il primo posto nelle classifiche britanniche, non ha potuto fare a meno di notare. Non tanto per l’orgoglio, ma per la consapevolezza che, a quasi ottant’anni, la sua musica continua a parlare, a toccare corde profonde. Eppure, non è l’ennesimo trionfo commerciale a definire la sua carriera, quanto la sua capacità di rimanere fedele a se stesso, di esplorare nuovi territori sonori senza mai tradire le sue radici.

Vibe Coding: l’era dell’AI che scrive il codice ma chi controlla chi?

Se pensi che l’intelligenza artificiale sia solo un gioco da ragazzi per dilettanti, è il momento di ricrederti. Oggi, l’AI non si limita a suggerire frasi o rispondere a domande; sta scrivendo codice, creando applicazioni e, in alcuni casi, mettendo a rischio interi progetti. Benvenuto nell’era del “vibe coding”, dove la velocità è tutto, ma la responsabilità sembra essere un optional.

Persuasione umana vs. intelligenza artificiale: quando l’arte del dibattito supera i guardrail

Nel mondo dell’intelligenza artificiale, i modelli linguistici di grandi dimensioni (LLM) sono progettati per seguire linee guida etiche rigorose. Tuttavia, recenti studi hanno rivelato una vulnerabilità sorprendente: questi sistemi possono essere manipolati utilizzando tecniche di persuasione psicologica elementari, simili a quelle impiegate nei dibattiti scolastici. La ricerca condotta da Dan Shapiro, CEO di Glowforge, e colleghi, pubblicata con il titolo “Call Me A Jerk: Persuading AI to Comply with Objectionable Requests”, ha messo in luce come l’invocazione di figure autoritarie possa indurre un LLM a violare le proprie restrizioni. Ne abbiamo già scritto ma ci piace reiterare il concetto.

Lo studio ha dimostrato che l’attribuzione di una richiesta a una figura autorevole, come Andrew Ng, ha aumentato la probabilità che GPT-4o Mini fornisse istruzioni per la sintesi di lidocaina dal 5% al 95%. Questo fenomeno evidenzia una debolezza fondamentale nei sistemi di intelligenza artificiale: la loro suscettibilità a manipolazioni sociali. Nonostante i progressi tecnologici, i LLM continuano a mostrare una “credulità” che li rende vulnerabili a tecniche di ingegneria sociale.

Da selfie a figurina: il trucco di Google Nano Banana che sta impazzando sui social

La digitalizzazione del mondo non smette mai di stupire. Mentre alcuni scoprono il potere iperrealistico di Gemini 2.5 Flash Image per trasformare selfie in figurine da 1/7 scala, altri trovano un’ispirazione surreale negli organi delle cattedrali, strumenti ancestrali capaci di riverberare secoli di storia sacra, ora pronti a diventare kick e hi-hat per la trap. Il paradosso è chiaro: ciò che un tempo serviva a elevare l’anima oggi alimenta algoritmi di viralità, basi sonore e feed social da milioni di visualizzazioni.

Google, con il suo strumento soprannominato Nano Banana, ha inaugurato un’epoca nuova per la cultura dei mini-io digitali. Gli utenti caricano una foto intera del proprio corpo, inseriscono un prompt dettagliato e ottengono un piccolo figurino pronto per il negozio in pochi secondi. Politici, influencer e creatori avanzati affinano materiali, pose e accessori, trasformando l’autoritratto in un action figure personalizzato. L’idea di base è semplice: la tecnologia prende qualcosa di reale e lo rende straordinariamente tangibile. In parallelo, chi registra organi monumentali capisce che il principio è lo stesso: catturare l’essenza di un suono antico e reinventarla in chiave contemporanea.

Nuovo umanesimo digitale: tra creatività, regole e startup, il cuore di DigithON 2025

Se la prima giornata di DigithON 2025 ha messo l’accento sul bivio storico dell’intelligenza artificiale, quella di ieri, venerdi 12 settembre, ha fatto un passo oltre, cercando un equilibrio tra difesa della creatività umana, sicurezza e futuro delle imprese. A tenere insieme i fili di un dibattito complesso è stato ancora una volta il richiamo a un “nuovo umanesimo digitale”, un concetto che si è intrecciato negli interventi di politici, manager, studiosi e rappresentanti delle istituzioni culturali.

Oracle AI Solutions HUB: come costruire davvero applicazioni intelligenti

Nel mare magnum di articoli, keynote e paper sull’intelligenza artificiale, il rumore ha ormai superato il segnale. Tutti parlano di AI, pochissimi la implementano davvero. E quasi nessuno sa come. La verità è che la maggior parte delle imprese si ritrova spaesata di fronte a prompt ingegnerizzati male, modelli pre-addestrati che sembrano maghi da fiera e architetture fumose che promettono tanto ma consegnano poco. Oracle, invece, ha scelto di risolvere il problema a monte: tradurre la complessità dell’intelligenza artificiale in una serie di strumenti concreti, codificati, operativi. Nasce così l’Oracle AI Solutions Hub, un acceleratore cognitivo in formato digitale, pensato per sviluppatori, data scientist e architetti cloud che vogliono passare dalla teoria alla produzione. Subito.

ChatGPT diventa il tuo nuovo genio: sta per rubarti il lavoro e il cervello

Chi ha detto che l’intelligenza artificiale è solo una scorciatoia comoda per post-it digitali? Basta una dimostrazione a Washington, con Sam Altman e Kevin Weil sul palco, perché il mito venga squarciato. Il sorprendente “deep research” di ChatGPT un nome poco fantasioso, ma le sue ambizioni sono da premio Nobel all’hotel Hilton dimostra che l’AI può trasformarsi in un ricercatore iper-efficiente in pochi minuti: memo completi, con punti di forza, punti deboli, persino domande adatte a un senatore curato durante una finta audizione su Einstein come segretario all’Energia.

Poi apri il link di OpenAI e trovi la cronaca ufficiale: il 3 febbraio 2025 è stata lanciata l’opzione “Deep Research”, un agente ChatGPT che va oltre la chat: scava, analizza, sintetizza centinaia di fonti online, produce report robusti con citazioni e catena di pensiero visibile. Sì, d’accordo: sa ancora inventare dettagli buffi ogni tanto, ma almeno ti dà le sue fonti, così puoi smascherarlo.

Dentro il lato oscuro dell’AI: il lavoro nascosto che insegna a parlare ai robot

Nel cuore pulsante dell’intelligenza artificiale, lontano dai riflettori, si cela una forza lavoro invisibile che plasma le conversazioni digitali: gli allenatori umani. Questi professionisti freelance forniscono il materiale grezzo conversazioni, prompt e annotazioni che modella il modo in cui le macchine “imparano” a sembrare umane. Un esempio emblematico è la storia di Serhan Tekkılıç, un artista di 28 anni proveniente da Istanbul, che ha intrapreso il ruolo di allenatore AI, rivelando la strana miscela di creatività, monotonia e sfruttamento all’interno di questa crescente industria.

La maratona delle idee: DigithON 2025 apre il dibattito sul futuro digitale

L’apertura della decima edizione di DigithON ieri ha avuto il sapore di un richiamo istituzionale e morale prima che tecnologico: non una semplice celebrazione delle startup, ma un invito a riflettere sul destino collettivo che accompagna la diffusione dell’intelligenza artificiale. Sul palco delle Vecchie Segherie Mastrototaro, tra cronometri che scandivano i pitch e platee di giovani fondatori, Francesco Boccia ha messo subito le cose in chiaro: l’AI non è soltanto un “dispositivo di progresso”, ma una leva che può aprire spazi di libertà oppure innescare nuove forme di dominio. Le sue parole hanno tracciato la cornice etica dell’intera manifestazione: siamo all’incrocio tra progresso e apocalisse, e la politica, ha sottolineato Boccia, ha il dovere di costruire regole globali per evitare che potere e profitto trasformino la tecnologia in arma di massa.

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

Larry Ellison vuole comprarsi Hollywood con i soldi dell’AI: genio o follia da 70 miliardi?

Larry Ellison si sveglia con cento miliardi in più nel conto e pensa che il momento sia perfetto per andare a fare shopping a Hollywood. Non è una battuta, è cronaca: il Wall Street Journal ha riferito che la famiglia Ellison, tramite una combinazione tra la nuova entità Paramount Skydance e la liquidità della casa madre tecnologica, starebbe preparando un’offerta in gran parte in contanti per acquisire Warner Bros. Discovery, un’operazione che potrebbe aggirarsi, considerando la capitalizzazione e l’assunzione del debito, ben oltre i settanta miliardi. (The Wall Street Journal)

L’AI traduce, ma non capisce: Prof. Roberto Navigli svela il tallone d’Achille dei Large Language Models

Questa settimana Roberto Navigli, professore a La Sapienza e fondatore di Babelscape, ci condivide due talk invitati a RANLP 2025 e LDK 2025. Il tema è di quelli che mettono in crisi le certezze: i Large Language Models capiscono davvero il significato delle parole? Non si tratta di un esercizio accademico, ma di un interrogativo che tocca il cuore stesso dell’intelligenza artificiale, spesso celebrata con toni trionfalistici che oscillano tra la propaganda e la fantascienza.

La crittografia che ride del futuro… e del suo passato

È irresistibile guardare l’attuale crittografia classica come il palazzo dei sogni di un illusionista che tiene in equilibrio tutto sull’improbabile: problemi matematici “hard” che, si spera, nessun computer neanche quelli quantistici riuscirà a risolvere. Ma i computer quantistici non sono la prossima rivoluzione: sono il terremoto che sta già fratturando fondamenta che pensavamo di aver solidificato per sempre. Oggi c’è un nuovo twist: una prova matematica che promette sicurezza non grazie alla difficoltà, ma grazie alle regole stesse del mondo quantistico.

Gattini di peluche con intelligenza artificiale: l’infanzia al tempo delle macchine che fingono di amare

Il marketing ha trovato il suo nuovo cavallo di battaglia: i peluche con intelligenza artificiale, ribattezzati con l’etichetta accattivante di “screen-free playmates”. È l’ennesima invenzione che promette ai genitori meno sensi di colpa, meno ore passate davanti a un tablet e più interazioni “sane”. Ma chiunque abbia letto più di due ricerche serie di psicologia infantile sa che qui non si parla di compagnia innocente. Qui si parla di macchine travestite da orsetti che iniziano a prendersi un posto nella testa di bambini di tre anni, con la stessa naturalezza con cui una volta si infilava un biberon in mano al neonato.

Il paradosso è cristallino: ridurre lo schermo per aumentare la dipendenza da una voce sintetica che risponde con script predeterminati. Psicologi e pediatri gridano già al disastro, avvertendo che i bambini in età prescolare rischiano di sostituire la madre, il padre o il compagno di giochi con un algoritmo che finge di capire. Ed è proprio qui la trappola: i bambini non distinguono tra chi prova davvero empatia e chi la simula. Se un peluche ribatte con tono rassicurante a una paura notturna, il piccolo finirà per fidarsi. Peccato che quella fiducia sia orientata verso un sistema che non conosce amore, ma solo istruzioni.

Marina Vyazovska conquista la Fields Medal

Marina Vyazovska, matematica originaria di Kiev, è entrata nella storia risolvendo un problema che aveva sfidato generazioni di studiosi: il problema dell’impacchettamento delle sfere nello spazio a otto dimensioni. Per chi non mastica matematica avanzata, si tratta di una variante estrema della domanda apparentemente banale “quante arance si possono sistemare ordinatamente in una cassetta?”. La risposta in tre dimensioni era costata trecento pagine di dimostrazioni complicatissime, mentre Vyazovska ha risolto la versione a otto dimensioni con appena ventitré pagine, per di più con una grazia tecnica che molti colleghi hanno definito “elegante” quasi quanto un’opera d’arte.

Qwen3-next: la nuova mossa di Alibaba che mette in imbarazzo la legge di Moore

La notizia arriva come un colpo ben assestato in una partita che qualche anno fa sembrava già scritta: Alibaba ha reso open source il suo ultimo modello di intelligenza artificiale costruito sull’architettura Qwen3-Next, reclamando miglioramenti di efficienza che suonano quasi irridenti rispetto al passato. Secondo le note pubblicate dal team Qwen sulle piattaforme pubbliche per sviluppatori, il modello Qwen3-Next-80B-A3B, con 80 miliardi di parametri totali ma solo 3 miliardi attivi per token, ottiene prestazioni dieci volte superiori in certi compiti a fronte di un costo di addestramento dichiarato pari a un decimo rispetto al predecessore Qwen3-32B. Questa affermazione non è un tweet vago ma è documentata nei repository ufficiali dove Alibaba ha caricato modelli e note tecniche.

Chatbot per minori: la nuova emergenza della sicurezza AI

Chatbot Per Minori oggi non è più solo un esperimento sociologico, ma un campo minato dove tecnologia, psicologia, business e regolamentazione scontrano le loro lame. Il caso della Federal Trade Commission Usa getta luce su rischi che finora molti hanno sottovalutato, purché il profitto cresca.

Il termine racchiude macchine che somigliano agli amici, che parlano come confidanti, che offrono empatia artificiale a ragazzini e adolescenti soli o in crisi. Queste piattaforme fanno leva su quella che psicologi chiamano “dipendenza emotiva”: non serve che siano consapevoli, serve che appaiano consapevoli.

Accordo tra OpenAI e Microsoft: una tregua contrattuale o l’inizio di un nuovo tumulto?

La notizia ufficiale è semplice e diplomaticamente lucida. OpenAI e Microsoft hanno firmato un memorandum d’intesa non vincolante per definire la prossima fase della loro partnership, impegnandosi a finalizzare i termini contrattuali in un accordo definitivo e a proseguire nello sviluppo di strumenti di intelligenza artificiale con un focus condiviso sulla sicurezza. (annuncio OpenAI)

La realtà è che si tratta di una partita di governance, asset cloud e condizioni economiche che potrebbe decidere chi governerà la catena di valore dell’AI nei prossimi anni. Microsoft ha immesso capitale nell’ecosistema OpenAI per anni, con cifre riportate tra gli 11 e i 13 miliardi di dollari dal 2019 ad oggi, e ha ottenuto diritti commerciali e condivisione dei ricavi che l’hanno resa un partner quasi irrinunciabile. Questa ambiguità numerica sulla somma precisa riflette la natura opaca e stratificata degli accordi che stiamo osservando.

Anthropic: Bringing memory to teams at work

Anthropic ha appena annunciato un aggiornamento importante per Claude: ora il chatbot può “ricordare” automaticamente i dettagli delle conversazioni precedenti senza che l’utente debba esplicitarlo, ma con limiti e controlli precisi. Ecco una disamina tecnica e strategica, con spunti critici perché se sei CTO/CEO, capire le implicazioni è essenziale.

Terre rare, tariffe, mare e diplomazia: perché la partita usa-cina è pi ù tecnica di quanto sembri

Inizio il pezzo sbriciolando l’illusione più comune: non si tratta soltanto di due leader che si stringono la mano davanti alle telecamere, ma di catene di approvvigionamento, licenze, e magneti così piccoli da non farsi notare ma abbastanza vitali da mettere a ginocchio un aereo da combattimento. La finestra di novembre per una possibile visita del presidente Trump in Cina, collocabile intorno al vertice APEC in Corea del Sud, non è soltanto diplomazia di facciata; è il tentativo di trasformare una tregua tariffaria fragile in una soluzione negoziale concreta. L’accordo che mantiene le tariffe a livelli elevati ma stabili è stato esteso fino al 10 novembre 2025, creando una scadenza che funziona come una clessidra per negoziatori nervosi.

La milanese Bending Spoons compra Vimeo: il colpo da 1,38 miliardi che mette in scena il consolidamento europeo del video

La notizia è semplice nella sua brutalità: la milanese Bending Spoons ha annunciato l’acquisizione di Vimeo per 1,38 miliardi di dollari, un’operazione in contanti che porta il prezzo per azione a 7,85 dollari e che trasformerà Vimeo in una società privata. Questo è il tipo di mossa che parla più di strategia opportunistica che di semplice filantropia industriale.

Il prezzo offerto rappresenta un premio sostanzioso rispetto al mercato: circa il 91 percento sopra la media delle ultime 60 giornate di scambio. Pagare quasi il doppio rispetto a quello che il mercato aveva “pronosticato” nel breve termine è una dichiarazione d’intenti. In termini pratici significa che Bending Spoons sta comprando non tanto ricavi stabili quanto capacità tecnologica, contratti enterprise, e una base di utenti che può essere riposizionata sotto una nuova narrativa di prodotto e AI.

MAI-Voice-1

La modalità script è appena arrivata per la generazione audio in Copilot Labs. Modalità script: legge il tuo input alla lettera. Emotiva: improvvisa un po’ per il massimo del dramma. Storia: interpreta più voci/personaggi.

Oracle Health lancia l’Oracle AI center of excellence for healthcare: promessa, realtà e qualche domanda

La notizia è semplice e potente nella sua semplicità: Oracle Health ha annunciato il lancio dell’Oracle AI Center of Excellence for Healthcare, una piattaforma pensata per aiutare ospedali e sistemi sanitari a sfruttare i rapidi progressi dell’intelligenza artificiale, mettendo insieme risorse, ambienti cloud sicuri e competenze di integrazione per far decollare progetti AI su scala enterprise.

Questo annuncio arriva in un contesto in cui i grandi vendor tecnologici rincorrono il sogno di trasformare i processi clinici e amministrativi con modelli di intelligenza artificiale e agenti conversazionali che promettono di ridurre il lavoro ripetitivo, accelerare la ricerca e, perché no, abbassare i costi operativi. Oracle posiziona il suo Centro come hub di risorse on demand, con guide di implementazione, framework, best practice e sessioni onsite per sperimentare soluzioni su Oracle Cloud Infrastructure, Oracle Fusion Cloud Applications e tecnologie di Oracle Health.

stop Cyber Command sulla Russia

AI psicopatica e cybersecurity: il lato oscuro dei chatbot generativi

Chiunque oggi respiri l’aria rarefatta delle boardroom tecnologiche ha capito che l’intelligenza artificiale non è più un futuro lontano, ma un presente travolgente. La corsa ai chatbot generativi è talmente forsennata che le aziende li implementano con lo stesso entusiasmo con cui un ventenne compra criptovalute al massimo storico, convinti che sia la scorciatoia verso efficienza, margini e vantaggi competitivi. La verità è che in questo slancio cieco c’è un problema strutturale: stiamo mettendo nelle mani dei nostri sistemi più critici uno strumento che, a ben guardare, si comporta come un perfetto psicopatico digitale. Nessuna empatia, nessun senso di colpa, ma un’incredibile capacità di produrre risposte ordinate, convincenti, formattate in modo impeccabile. È la maschera lucida che inganna proprio quando pensiamo di avere a che fare con un assistente affidabile.

Thinking Machines lab, il laboratorio di Mira Murati che vuole sconfiggere il non determinismo delle LLM

Il debutto pubblico del nuovo laboratorio di Mira Murati, Thinking Machines Lab, non è stato un battito d’ali: è stato un boato finanziario che ha trasformato rumor e voci di corridoio in cifre che nessun boardroom osa ignorare. La raccolta di 2 miliardi di dollari e la valutazione da 12 miliardi sono riporti che collocano la società tra le startup più capitalizzate dell’era post-scouting, con nomi importanti tra gli investitori come Nvidia, Accel e altri. Questa non è solo una buona notizia per i venture capitalist; è una dichiarazione di intenti: soldi, talento e una roadmap ambiziosa.

Chi segue il mercato sa quanto pesi la reputazione di chi guida l’impresa. Mira Murati non è una CEO qualunque: è l’ex Chief Technology Officer di OpenAI, figura che ha contribuito a far diventare prodotti come ChatGPT più affidabili e di massa. Quando una persona con il suo pedigree lancia un laboratorio con una squadra che include ex ricercatori di primo piano, l’attenzione non è emozionale; è tecnica, strategica, e per alcuni versi scettica. Non c’è magia dietro queste operazioni, c’è una scommessa: che sapendo dove guardare si possano risolvere problemi che tutti ritenevano “inesorabili”.

OpenAI e Oracle: il contratto da 300 miliardi che riscrive il mercato del cloud

La notizia è semplice ma distruttiva per le vecchie abitudini del mercato tecnologico: OpenAI avrebbe firmato un accordo con Oracle per acquistare 300 miliardi di dollari in potenza di calcolo su un orizzonte di circa cinque anni, uno degli acquisti cloud più vasti mai registrati su scala industriale. Questo non è un esercizio di iperbole finanziaria, ma la costruzione concreta di una dipendenza infrastrutturale che rimodella rapporti di forza, dinamiche di costo e leve geopolitiche intorno all’intelligenza artificiale.

Questo accordo si innesta dentro un progetto più ampio che ormai ha un nome quasi mitologico: Project Stargate, la scommessa di OpenAI, Oracle e altri partner per costruire nuove capacità di data center che richiederanno fino a 4.5 gigawatt di potenza. La cifra è reale e impressionante, perché 4.5 gigawatt significano impianti su scala industriale che non si installano in un garage ma si progettano con ingegneria pesante, accordi energetici e permessi politici. Il comunicato congiunto e i documenti pubblici dell’iniziativa lo confermano.

RSL standard: quando gli editori cercano di trasformare i bot in contribuenti

Il mondo digitale è un teatro di potere dove chi pubblica prova a riprendersi il conto in banca. Questa settimana un gruppo di editori e piattaforme ha messo in campo un piano che suona semplice ma ha una potenziale portata gigante: Really Simple Licensing, abbreviato RSL, un nuovo standard aperto che permette ai proprietari di contenuti di specificare termini di licenza e compenso direttamente nei loro file robots.txt o nei metadati dei contenuti. L’annuncio, sostenuto da nomi come Reddit, Yahoo, Medium, Quora e People Inc., rappresenta più di una protesta politica contro il furto dati: è un tentativo deliberato di ridefinire la valuta dell’ecosistema informativo.

Sandbox act e il paradosso dell’innovazione deregolamentata

Il SANDBOX Act presentato da Ted Cruz suona come il classico manifesto politico travestito da rivoluzione tecnologica. Un disegno di legge che promette alle aziende di intelligenza artificiale la possibilità di muoversi in un’area grigia, al riparo da “ostacoli regolatori”, con la scusa di accelerare l’innovazione e mantenere la supremazia tecnologica americana. La narrazione è semplice: meno regole, più creatività. Ma come ogni slogan efficace nasconde la sostanza più complessa, e spesso più scomoda, che va letta con attenzione da chiunque abbia a cuore il futuro dell’AI, la concorrenza e la protezione dei consumatori.

Larry Ellison batte Musk

Larry ellison ha appena compiuto l’impresa che nessuno, tranne lui, aveva davvero previsto. L’uomo che per decenni è stato il genio sottovalutato della Silicon Valley, il cofondatore che trasformò Oracle in un colosso silenziosamente onnipresente nei sistemi delle aziende globali, oggi ha superato Elon Musk e siede sul trono di uomo più ricco del mondo. Non stiamo parlando di uno scarto marginale. Bloomberg stima il patrimonio netto di Ellison intorno ai 393 miliardi di dollari, superando Musk, fermo a 385 miliardi. Un sorpasso che non è figlio di una lenta accumulazione, ma di un’accelerazione brutale: un guadagno di oltre 100 miliardi in un solo giorno grazie a un rally storico delle azioni Oracle, spinte dall’euforia sul business del cloud e dalla fame insaziabile di potenza di calcolo per l’intelligenza artificiale.

Nvdia afferma che small language models sono il futuro dell’agentic AI

Se pensavate che l’AI del futuro puntasse inevitabilmente verso modelli sempre più mastodontici, il paper di NVIDIA Research vi costringe a ricredervi. “Small Language Models Are the Future of Agentic AI” stila una provocatoria dichiarazione di rottura: i modelli compatti non sono solo sufficienti, ma spesso più efficaci nel vasto mondo delle AI agentiche.

Questa non è teoria da salotto. È una rivoluzione operativa che mette sotto accusa l’intero culto dei giganti. I modelli con meno di 10 miliardi di parametri (SLMs) sono oggi in grado di eguagliare o superare LLM da 30–70 B nelle tasks specifiche grazie a fine-tuning, tecniche di distillazione e design ibridi. Il modello “Nemotron Nano 2”, un SLM da 9 B parametri, segna un punto di svolta: più preciso, più efficiente, fino a 6 × più veloce rispetto ai coetanei, con contesto fino a 128k token, pensato per girare su una sola GPU con pesi aperti e documentazione per l’enterprise.

Microsoft abbandona OpenAI? il colpo segreto con l’AI di Anthropic che nessuno si aspettava

Microsoft ha deciso di diversificare la propria strategia nell’intelligenza artificiale integrando la tecnologia di Anthropic nelle applicazioni di Office 365, tra cui Word, Excel, Outlook e PowerPoint. Questa mossa segna un cambiamento significativo rispetto alla tradizionale dipendenza dai modelli di OpenAI. Secondo quanto riportato da Reuters, Microsoft pagherà per utilizzare la tecnologia di Anthropic per alcune funzionalità AI in queste applicazioni, combinandola con i modelli di OpenAI.

Seedream 4.0 vs Nano Banana

ByteDance ha appena lanciato Seedream 4.0, il suo nuovo modello di intelligenza artificiale per la generazione e modifica di immagini, dichiarando che supera Gemini 2.5 Flash Image (noto anche come “Nano Banana”) in diversi indicatori chiave. Secondo quanto riportato dal South China Morning Post, ByteDance afferma che Seedream 4.0 ha ottenuto risultati superiori a Gemini 2.5 Flash Image nel suo benchmark interno MagicBench, con prestazioni migliori in termini di aderenza al prompt, allineamento e estetica.

Euclyd e il supercomputer che promette di distruggere Nvdia senza consumare energia

Bernardo Kastrup, noto per la sua fusione tra filosofia della mente e ingegneria informatica, ha recentemente lanciato Euclyd, una startup olandese focalizzata sull’AI responsabile. La società ha appena rivelato il suo prodotto di punta, il CWS12, un rack server progettato per offrire prestazioni superiori a oltre 100 rack NVIDIA Blackwell, consumando meno energia di un singolo rack NVIDIA. Questo approccio mira a ridurre l’impatto ambientale dell’AI, un passo significativo verso un’AI più sostenibile.

Euclyd si distingue per l’architettura Craftwerk, che include 16.384 processori SIMD e una memoria ultra-banda da 1 terabyte, con una potenza termica di circa 3 kW. La società è supportata da figure di spicco come Federico Faggin, inventore del microprocessore, e Peter Wennink, ex CEO di ASML. Questa combinazione di competenze filosofiche e ingegneristiche potrebbe segnare una svolta nell’AI responsabile.

Eccolo https://euclyd.ai/

AI e Decision Making: come stiamo delegando il cervello alle macchine

C’è un dettaglio fastidioso che emerge ogni volta che mettiamo insieme ricercatori, utenti e algoritmi: l’AI non ci rende più intelligenti. Al contrario, sembra che stia silenziosamente erodendo la nostra capacità di pensiero critico, trasformandoci in consumatori docili di consigli automatizzati. I pattern che la ricerca accademica sta documentando non sono affatto marginali. Sono i segnali precoci di un cambiamento radicale nel modo in cui prendiamo decisioni. Non stiamo parlando di futurismo da salotto, ma di evidenze già misurate in laboratorio e nella vita quotidiana.

Buçinca e colleghi lo hanno dimostrato in uno studio del 2021: introdurre funzioni di forcing cognitivo, piccoli ostacoli progettati per costringere l’utente a ragionare, migliora la qualità delle decisioni. Ma c’è un problema enorme. Gli utenti detestano l’esperienza. Vogliono risposte veloci, non esercizi di logica. Usabilità vince su accuratezza, e questo dice tutto sul rapporto tossico che stiamo costruendo con l’AI. Preferiamo essere serviti piuttosto che messi alla prova. È un trionfo del design dell’esperienza sull’esercizio della ragione.

Finanze francesi colpite dalla crisi politica con i rendimenti obbligazionari in aumento

La Francia entra in una nuova stagione di incertezza dove i mercati non perdonano distrazioni politiche; il collasso del governo guidato da François Bayrou ha già lasciato tracce visibili sui titoli di Stato, trasformando quella che fino a ieri era una discussione domestica su tagli di bilancio in una questione di credibilità sovrana internazionale.

La caduta del governo è stata inequivocabile: il voto di sfiducia ha registrato 364 voti contro e 194 a favore, numeri che non lasciano spazio a interpretazioni tattiche. Il fallimento della manovra di austerità proposta da Bayrou ha rapidamente rivelato crepe profonde nella coalizione e ha spostato l’attenzione dei portafogli da metriche macroeconomiche a considerazioni politiche e di governance.

Incredible e il mito dell’agentic AI perfetto dalla Svezia

Quando leggi “incredible”, pensi a qualcosa di grandioso, e non sei deluso: tre anni di sviluppo dicono tutto. È incredibile e stai per scoprire perché, con quella cifra magica di 1000+ azioni e gigabyte di dati che vengono strumentalizzati senza sforzo, Incredible ha appena piantato una bandierina nel deserto del generico genAI.

Anthropic book piracy settlement e il prezzo del plagio digitale travestito da innovazione

Anthropic pensava di aver chiuso la faccenda con un assegno da 1,5 miliardi di dollari, una cifra che in altri contesti verrebbe definita un atto di contrizione spettacolare. Ma il giudice William Alsup, che da anni non le manda a dire alle big tech, ha deciso che no, non basta scrivere un numero a nove zeri per trasformare il peccato originale dell’addestramento illegale dei modelli AI in un ricordo sbiadito. Non è questione di soldi, è questione di potere contrattuale. Perché quando la narrativa dominante diventa “abbiamo risolto, gli autori riceveranno tremila dollari a testa, avanti il prossimo”, si rischia di trasformare una violazione sistemica in una transazione di massa, senza che chi è stato colpito abbia realmente voce in capitolo.

Nvidia e la corsa ai data center da gigawatt: il futuro dell’infrastruttura AI

Quando Nvidia pubblica un bilancio che fa girare la testa agli investitori, non stiamo parlando di numeri da “cresciuto un po’”. Stiamo parlando di cifre che riscrivono la geografia economica dell’intelligenza artificiale. Jensen Huang, CEO della società, ha lanciato un’indicazione chiara: un singolo data center AI da un gigawatt costerà circa 50 miliardi di dollari. Di quei 50 miliardi, 35 miliardi finiranno nelle casse di Nvidia sotto forma di hardware, lasciando il resto per sistemi complementari. Non sono più i classici megawatt che si spostano con calma nei bilanci aziendali; qui parliamo di gigawatt, di super-fabbriche AI che potrebbero moltiplicare i costi e, ovviamente, i profitti di Nvidia.

OpenAI non sta giocando piccolo. Bloomberg ha riportato che l’azienda sta esplorando partnership in India per costruire un data center da un gigawatt e allo stesso tempo programma strutture simili negli Stati Uniti e in altre regioni globali. Tradotto in soldoni, se le stime di Nvidia reggono, il piano di OpenAI potrebbe tradursi in centinaia di miliardi di dollari destinati all’infrastruttura AI. Non è fantascienza, è capitalismo su scala industriale spinto dall’intelligenza artificiale.

Pagina 13 di 123

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie