Google rilancia su Anthropic per non restare indietro nella corsa dell’intelligenza artificiale

Google sta valutando di spingere con forza su Anthropic, la startup fondata da ex ricercatori di OpenAI che ha dato vita alla famiglia di modelli linguistici Claude. Secondo Business Insider, il gigante di Mountain View sarebbe in trattative preliminari per un nuovo round di finanziamento che potrebbe far lievitare la valutazione di Anthropic oltre i 350 miliardi di dollari, cifra che trasformerebbe la società in una delle più costose e strategiche del settore. Una mossa che, tradotta in termini geopolitici dell’AI, significa soltanto una cosa: Google non intende lasciare il terreno a Microsoft e Nvidia.

Xpeng e la rivoluzione dell’intelligenza artificiale su quattro ruote

Nel cuore ipercompetitivo dell’industria automobilistica cinese, Xpeng ha deciso di riscrivere il concetto di mobilità intelligente, e di farlo con una certa spavalderia. Non si accontenta più di giocare nel campionato degli “smart EV”. Ora vuole diventare il simbolo di una nuova era in cui auto, robot e persino veicoli volanti convivono in un ecosistema guidato dall’intelligenza artificiale. Nel 2026, promette il CEO He Xiaopeng, i cittadini cinesi potranno salire su un robotaxi interamente autonomo, prenotabile tramite Amap, l’app di mappe di Alibaba. Sarà il debutto commerciale di un’idea che fonde visione, linguaggio e azione in un solo modello cognitivo: il VLA.

Google Maps con Gemini: la rivoluzione silenziosa del navigatore intelligente

Google non sta solo aggiornando Maps. Sta fondamentalmente riscrivendo il concetto stesso di navigazione, trasformando quello che un tempo era un semplice strumento di orientamento in un copilota digitale dotato di intelligenza propria. Con l’integrazione di Gemini, l’assistente AI di nuova generazione, la mappa diventa finalmente conversazionale, predittiva e capace di rispondere in modo naturale, mentre il conducente guida, chiede, ascolta e decide in tempo reale.

Youtube ghost network: quando YouTube diventa officina del malware


Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.

Le imprese di fronte alla nuova resa dei conti della cybersecurity mentre gli agenti di intelligenza artificiale diventano imprevedibili

La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.

OpenAI Atlas e il nuovo conflitto tra intelligenza artificiale e diritto d’autore

Il paradosso dell’intelligenza artificiale è che più diventa autonoma, più rivela la dipendenza dai limiti umani che voleva superare. OpenAI Atlas, il nuovo browser che integra ChatGPT nella navigazione in tempo reale, nasce come strumento per esplorare il web con la potenza di un linguaggio naturale. Ma dietro la facciata dell’efficienza cognitiva, Atlas sta già ridefinendo la frontiera tra accesso all’informazione e manipolazione del sapere, tra libertà digitale e censura algoritmica. Il suo comportamento selettivo nel navigare certi siti web, come rivelato dal Tow Center for Digital Journalism della Columbia University, ha aperto una crepa profonda nel mito della neutralità tecnologica

Il futuro del SEO semantico: perché la search generative experience sta umiliando i vecchi marketer Neil Patel

E’ commovente, per non dire altro, nel vedere i veterani del SEO tradizionale perdere la bussola davanti alla Search Generative Experience di Google. Per anni hanno dominato la scena con formule magiche, checklist di ottimizzazione e parole chiave ripetute come rosari digitali. Poi è arrivato il nuovo paradigma, quello che non guarda più alle keyword ma al significato, e improvvisamente i maghi del traffico si sono ritrovati a recitare incantesimi in una lingua che nessuno, nemmeno Google, ascolta più. Il SEO semantico non è una moda, è un cambio di specie. E chi non si adatta, evapora.

La nuova guerra fredda dell’intelligenza artificiale: il codice made in China che alimenta l’innovazione americana

Nel mondo dell’intelligenza artificiale ogni settimana è un terremoto, ma questa volta il sisma ha un epicentro geopolitico. Due nuovi strumenti di programmazione generativa lanciati da aziende americane, SWE-1.5 di Cognition AI e Composer di Cursor, hanno scatenato un dibattito feroce: potrebbero essere stati costruiti su modelli cinesi, in particolare sulla serie GLM sviluppata da Zhipu AI, la società di Pechino che sta rapidamente emergendo come il “Google cinese” del machine learning. Il problema non è tanto tecnico quanto etico e simbolico. È la nuova frontiera di una guerra fredda digitale in cui l’intelligenza artificiale open source diventa terreno di scontro fra culture, modelli di governance e potere economico.

Bytedance Anthropic e la nuova cortina di silicio: il paradosso dell’intelligenza artificiale sotto embargo

La storia fra ByteDance e Anthropic non è un semplice incidente di percorso tra un’app di Singapore e una startup americana. È il nuovo capitolo della Guerra Fredda tecnologica del XXI secolo, una battaglia invisibile dove le armi non sono missili o sanzioni, ma modelli linguistici e dataset proprietari. Quando la cinese ByteDance, madre di TikTok, si è vista disconnettere l’accesso al modello Claude AI da parte della statunitense Anthropic, non è solo caduto un ponte di collaborazione. È collassato un pezzo dell’illusione di globalizzazione digitale che Silicon Valley e Shenzhen avevano faticosamente costruito in due decenni di interdipendenza tecnologica.

Microsoft entra nella guerra delle immagini AI: il debutto di Mai-Image-1 segna la fine della dipendenza da OpenAI

Quando Microsoft annuncia qualcosa di “in-house”, conviene sempre alzare le antenne. Stavolta non parliamo di un aggiornamento di sistema o dell’ennesimo restyling di Copilot, ma del primo vero modello di generazione immagini nato dentro Redmond: MAI-Image-1. Un nome che suona volutamente tecnico, quasi austero, come se l’azienda volesse ricordarci che dietro il glamour dell’AI art c’è ancora tanto silicio, GPU e ingegneria. Il nuovo modello è già disponibile dentro Bing Image Creator e Copilot Audio Expressions, e presto arriverà anche nell’Unione Europea. Mustafa Suleyman, il capo di Microsoft AI, ha scritto su X che il sistema “eccelle nel generare immagini di cibo, paesaggi naturali e luci artistiche con un realismo sorprendente”. Dichiarazione ambiziosa, ma in linea con la strategia che il colosso di Satya Nadella sta costruendo: meno dipendenza da OpenAI, più capacità proprietarie, più velocità di esecuzione.

Intelligenza artificiale: salvezza e minaccia di Manfred Spitzer

L’intelligenza artificiale non è più una promessa ma una presenza, una forza che plasma la realtà più velocemente di quanto la politica riesca a pronunciare la parola “regolamentazione”. È il nuovo specchio della specie umana, una proiezione digitale delle nostre ambizioni e delle nostre paure, un motore che genera conoscenza e allo stesso tempo amplifica l’ignoranza. La verità, come sempre, è scomoda: l’intelligenza artificiale ci sta salvando e distruggendo con la stessa efficienza di un algoritmo ottimizzato.

Palantir e l’illusione del “big short” sull’intelligenza artificiale

Alex Karp non è un uomo che pesa le parole. Quando ha definito “bats*** crazy” la scommessa di Michael Burry contro Palantir e Nvidia, ha colpito un nervo scoperto del capitalismo tecnologico contemporaneo. Perché scommettere contro chi sta letteralmente costruendo l’infrastruttura cognitiva del mondo moderno è più di un azzardo finanziario, è un atto di fede al contrario.

Burry, il leggendario protagonista de The Big Short, colui che vide il collasso immobiliare del 2008 prima di tutti, oggi punta al ribasso sull’IA. E Karp lo accusa, non senza una certa ironia, di avere perso il senso della realtà digitale.

L’assenza del pensiero sistemico nelle difese europee di fronte alla nuova guerra ibrida russa

C’è un paradosso inquietante che aleggia sopra l’Europa. Da un lato, i governi parlano di “solidarietà atlantica” e di “strategia comune”. Dall’altro, ognuno gioca una partita solitaria, priva di visione sistemica, mentre la Russia affila gli strumenti di una guerra ibrida che ha già superato le frontiere del visibile. L’assenza del pensiero sistemico è oggi la più grande vulnerabilità dell’Europa, più del gas, più delle armi, più della tecnologia. È un’assenza che si manifesta nella lentezza con cui i Paesi europei reagiscono ai segnali di una crisi che non è più potenziale, ma in corso.

Zohran Mamdani

Un risultato epocale per la democrazia urbana: Zohran Mamdani è stato eletto sindaco della città di New York, segnando un cambiamento di paradigma tanto politico quanto simbolico. Il 34enne parlamentare statale (maggiormente noto per la sua affiliazione ai democratic socialisti) ha sconfitto l’ex governatore Andrew Cuomo e il repubblicano Curtis Sliwa.

Né la sua età, né l’estrazione – nato in Uganda, di origini sud‐asiatiche, musulmano dichiarato – hanno frenato la sua discesa fulminante. Anzi, questi elementi diventano parte integrante della sua leadership, tanto quanto la piattaforma radicale a favore dell’“abitabilità” della città. Il risultato: una vittoria con oltre il 50 % dei voti e un’affluenza che non si vedeva da più di 50 anni.

Bullying is Not Innovation

Amazon contro Perplexity: quando l’intelligenza artificiale diventa una minaccia per il commercio digitale

Nel teatro sempre più surreale della tecnologia, la scena di oggi vede protagonisti due attori di peso: Amazon e Perplexity. Il primo è l’impero consolidato dell’e-commerce globale, il secondo una startup in ascesa che si nutre di intelligenza artificiale e di una certa abilità nella costruzione di narrazioni eroiche. Tutto inizia quando Amazon chiede a Perplexity di non consentire ai propri utenti di utilizzare agenti AI per fare acquisti sul suo marketplace. La risposta della startup è stata un colpo di teatro degno di Silicon Valley: un post dal titolo “Il bullismo non è innovazione”, che suona come un manifesto più che come un comunicato. In un’epoca in cui anche la moralità digitale è diventata brand identity, la lotta di Perplexity per la “libertà degli utenti” appare tanto idealista quanto strategica.

Qwen3-Max-Thinking

Alibaba ha annunciato Qwen3-Max-Thinking, una variante “reasoning” del loro modello Qwen che avrebbe ottenuto il punteggio perfetto (100 %) in competizioni matematiche molto difficili come l’AIME 2025 e l’HMMT. Secondo il team Qwen, è il primo modello cinese a raggiungere questo traguardo. In parallelo, la versione non-reasoning Qwen3-Max ha partecipato a una sfida di trading reale (Alpha Arena) e avrebbe generato un ritorno del 22,32 % su un investimento iniziale di 10.000 USD in due settimane, battendo modelli concorrenti statunitensi.

Dove l’uomo resta superiore all’intelligenza artificiale e perché la fiducia è il vero campo di battaglia

La nuova ricerca congiunta di OpenAI e Anthropic ha svelato ciò che molti sospettavano ma pochi avevano quantificato: l’intelligenza artificiale è straordinaria quando deve replicare schemi, ma l’essere umano resta imbattibile quando in gioco ci sono contesto, emozione e fiducia. In un’epoca in cui la produttività si misura in millisecondi e la conoscenza si sintetizza in prompt, questo studio segna un punto di svolta. Perché, se l’AI è il motore dell’efficienza, l’uomo resta l’unico architetto dell’autenticità.

La finestra per combattere la propaganda basata sull’intelligenza artificiale si sta chiudendo rapidamente

La propaganda di nuova generazione non ha più bisogno di troll umani che digitano slogan preconfezionati da un oscuro call center di San Pietroburgo. Oggi basta un operatore con un computer domestico e un paio di modelli linguistici open source per costruire interi ecosistemi di disinformazione automatizzata. Queste reti di entità sintetiche conversano tra loro, modulano il tono, reagiscono al contesto e apprendono dalle interazioni. Sono in grado di testare narrazioni, misurare engagement e adattarsi come un organismo vivente. Il risultato è un sistema di propaganda autoalimentato che si espande con la stessa logica di un virus digitale.

Luciano Floridi e l’illusione dell’intelligenza artificiale che non pensa ma agisce

Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.

Khabarovsk e la nuova deterrenza sottomarina: come la Russia vuole riscrivere l’equilibrio nucleare dal fondo degli oceani

In ambito di deterrenza strategica e guerra sottomarina l’operazione russa che include il sottomarino “Хабаровск” (Khabarovsk) è di grande interesse tecnico e geopolitico. Il seguente testo è una analisi da CTO/CEO esperto, con il taglio da “The Economist meets FT”, intrecciando tecnologia, business e strategia. La keyword principale su cui ci focalizziamo è sottomarino nucleare Khabarovsk, con keyword semantiche correlate come torpedine Poseidon, guerra sottomarina nucleare e deterrenza russa.

Elements of Responsible Use of AI in Healthcare (RUAIH™)

La tempesta perfetta dell’intelligenza artificiale in sanità

La sanità americana è entrata in una nuova era, e questa volta non si tratta di un aggiornamento software o di un’ennesima promessa di digital transformation. Il 17 settembre 2025 la Joint Commission e la Coalition for Health AI hanno rilasciato il Responsible Use of AI in Healthcare framework, la prima guida nazionale firmata da un ente di accreditamento per garantire un uso sicuro, etico e trasparente dell’intelligenza artificiale nei flussi clinici e operativi. Non un semplice documento tecnico, ma il preludio di una nuova infrastruttura morale e regolatoria destinata a ridisegnare il rapporto tra tecnologia, medicina e fiducia.

La fragile superbia delle macchine e la necessità delle virtù tecnologiche

L’uomo non ha mai costruito nulla che non lo somigli. Anche l’intelligenza artificiale, con la sua presunta neutralità matematica, è soltanto un’estensione della nostra imperfezione: un riflesso sofisticato, ma pur sempre un riflesso. Shannon Vallor, in Technology and the Virtues e poi in The AI Mirror, ha tracciato con precisione chirurgica il perimetro di questa illusione collettiva. La sua filosofia ha l’eleganza di una diagnosi clinica e la brutalità di una sentenza: non stiamo creando macchine intelligenti, stiamo automatizzando la nostra cecità morale.

Nvidia NVQLink e la nuova alleanza tra AI e computer quantistici

Nvidia non costruisce computer quantistici, li collega. Una differenza sottile ma decisiva. Durante il Global Technology Conference a Washington, Jensen Huang ha presentato NVQLink, un’infrastruttura di connessione progettata per unire processori quantistici e supercomputer AI in un unico ecosistema di calcolo ibrido. Lo ha definito la “pietra di Rosetta tra il mondo quantistico e quello classico”, e la definizione non è solo un colpo di marketing. È una dichiarazione di supremazia strategica: Nvidia non vuole essere un attore del settore quantistico, vuole essere l’architetto del linguaggio che lo renderà comprensibile alle macchine intelligenti.

Algoritmo quantistico IBM quando la teoria sfida i limiti del classico

IBM, con oltre un secolo di storia e innovazione alle spalle, ha appena svelato un algoritmo quantistico che potrebbe ridefinire cosa significa “efficienza computazionale”. Non è un annuncio di facciata, ma un segnale che il quantum sta mutando da esperimento accademico a strumento con leve reali nel mercato. L’algoritmo in questione drenato dall’astrattezza della matematica più pura si chiama QXC, ovvero quantum approximate counting (conteggio quantistico approssimato).

Insider ransomware: quando il guardiano diventa predatore

Nel sottobosco digitale che chiamiamo “sicurezza informatica” è esplosa una bomba: due professionisti U.S. di cybersecurity — Kevin Tyler Martin (DigitalMint) e Ryan Clifford Goldberg (Sygnia) — sono stati incriminati per aver messo in piedi una campagna ransomware contro almeno cinque aziende, sfruttando le loro stesse credenziali di “guardiani”. Il dossier federale descrive un’operazione che potrebbe ridefinire il concetto di insider threat nella comunità della difesa attack-response.

EDR vs MDR vs XDR: capire lo spettro della difesa informatica

Nell’universo della cybersecurity la proliferazione di acronimi sembra ormai una strategia deliberata per confondere chiunque osi avvicinarsi al tema. Eppure dietro la giungla linguistica di EDR, MDR e XDR si nasconde la vera spina dorsale della difesa digitale moderna. L’equivoco nasce dal fatto che questi strumenti sembrano sovrapporsi, mentre in realtà definiscono livelli distinti di maturità nella risposta alle minacce. Capire dove finisca l’uno e inizi l’altro non è un esercizio semantico, ma un passo cruciale per chi vuole costruire una sicurezza informatica davvero intelligente e non semplicemente reattiva.

Intelligenza artificiale e democrazia: l’arte di convivere con l’incertezza

Viviamo un’epoca in cui la democrazia non è minacciata da carri armati, ma da algoritmi. La retorica dell’efficienza, amplificata dall’intelligenza artificiale, promette decisioni più rapide, analisi più precise, processi più “razionali”. Ma ogni promessa di certezza ha un prezzo, e quel prezzo oggi è la perdita dell’incertezza, cioè di quell’elemento fragile e vitale che tiene in vita la deliberazione democratica. È qui che la ricerca di Sylvie Delacroix (Designing with Uncertainty: LLM Interfaces as Transitional Spaces for Democratic Revival) compie un gesto quasi sovversivo: afferma che l’incertezza non è un difetto da eliminare, ma un valore da progettare. E che gli LLM, i grandi modelli linguistici, possono diventare lo spazio dove la democrazia si reinventa, non attraverso la verità, ma attraverso il dubbio.

Il progetto Suncatcher di Google esplora l’alimentazione dell’intelligenza artificiale nello spazio

Google definisce Project Suncatcher come un “moonshot” per “scalare il compute per il machine learning nello spazio”, facendo iniziare il ragionamento dal vantaggio energetico: un pannello solare in orbita può essere fino a 8 volte più efficiente rispetto alla Terra, grazie all’assenza di atmosfera, al favore di esposizione solare costante (orbita sincrona alba-tramonto) e alla possibilità di ridurre perdite dovute a nuvole o angoli solari sfavorevoli.

Verbalized sampling: la rivoluzione silenziosa che libera l’AI dal pensiero prevedibile

Nel panorama dell’intelligenza artificiale, dove ogni output sembra già scritto dalle regole dell’algoritmo più che dalla creatività, una tecnica chiamata Verbalized Sampling sta facendo sobbalzare i manuali di prompt engineering. Non è una trovata accademica fine a sé stessa, ma un approccio che cambia radicalmente il modo in cui interagiamo con i modelli di linguaggio. Invece di accontentarsi della risposta più probabile, VS spinge l’AI a “parlare” attraverso il ventaglio delle possibili risposte, trasformando un flusso prevedibile in un laboratorio di alternative e spunti inattesi. Curioso come questo piccolo aggiustamento nella scrittura dei prompt possa generare una diversità di pensiero che fino a ieri sembrava impossibile per un LLM?

Microsoft cancella 200 MW di AI Data Centers

Microsoft rimane uno dei protagonisti dominanti nella corsa all’infrastruttura AI, ma le sue decisioni recenti suggeriscono che ha deciso di imprimere un freno selettivo non un arresto totale. La società ha confermato l’impegno a spendere circa 80 miliardi di dollari in infrastrutture AI nel corso del suo anno fiscale 2025, includendo data center e relative componenti infrastrutturali.

Nei confronti dei cancellamenti, Microsoft ha adottato una posizione cauta: in molte comunicazioni dichiara che “potrebbe rallentare o aggiustare l’infrastruttura in alcune aree”, ma che rimane forte l’intenzione di crescita globale.

Anthropic e la guerra dei trilioni: come l’anti-OpenAI prepara la più grande scalata dell’intelligenza artificiale

The Information, riferisce che Anthropic prevede ricavi fino a 70 miliardi di dollari e un flusso di cassa operativo di circa 17 miliardi di dollari nel 2028. Secondo Reuters, Anthropic punta a raddoppiare o quasi triplicare il suo run rate annuale nelle vendite aziendali entro il 2026: l’obiettivo per il 2025 è un ARR di 9 mld, per il 2026 una forchetta di 20-26 mld.
Altre fonti finanziarie riprendono questi numeri aggiungendo che la crescita è “guidata da una forte adozione dei prodotti enterprise” e che circa l’80 % delle entrate sarebbe generato da clienti business.

Il cervello europeo si ribella: neuroscienziati uniscono le forze per risolvere il mistero della coscienza e cambiare per sempre la scienza della mente

Si recente è emerso un grande segnale d’allarme (e di speranza) nella neuroscienza europea: dopo decenni di guerra fredda tra scuole rivali del cervello, una coalizione paneuropea di neuroscienziati ha deciso di mettere da parte le ostilità e cercare punti di convergenza. Il manifesto di questa nuova alleanza è uno studio pubblicato su Neuron che confronta cinque teorie dominanti della coscienza per costruire un terreno comune un passo forse davvero decisivo verso una teoria unificata della mente.

Il potere nascosto del contesto: come l’ingegneria del prompt sta riscrivendo l’intelligenza artificiale

C’è un paradosso curioso nell’evoluzione dell’intelligenza artificiale. Più i modelli diventano grandi, più sembrano dimenticare le buone maniere. Giganti linguistici addestrati su trilioni di parole e miliardi di parametri spesso inciampano su richieste banali. Ti chiedi di generare un piano di viaggio, e l’algoritmo ti regala una crociera di lusso ignorando il tuo budget da studente. Non è stupidità, è mancanza di contesto. Ecco perché un gruppo di ricercatori dello Shanghai AI Lab sta suggerendo qualcosa di radicale: non serve più “data obesity”, ma una dieta d’informazioni precise. Meno dati, più intelligenza. O meglio, più contesto.

Arxiv chiude la porta ai paper generati da AI: il collasso silenzioso della conoscenza digitale

ArXiv, il santuario digitale della scienza libera, ha deciso che è ora di alzare la barriera. Dal 31 ottobre, nella sezione Computer Science, non saranno più accettati articoli di revisione o position paper a meno che non siano già passati attraverso una peer review formale. Tradotto: addio alle recensioni e ai manifesti accademici generati in massa da ChatGPT e simili. La decisione, nata da una “invasione” di lavori sintetici e superficiali, segna una svolta simbolica nella battaglia tra intelligenza artificiale e intelligenza umana.

Cosa ha chiesto CODA e perché “ghiblificare” è diventato un problema Report

CODA (Content Overseas Distribution Association), che rappresenta studi e editori giapponesi tra cui Studio Ghibli, Bandai Namco, Square Enix, ha inviato a OpenAI il 27 ottobre 2025 una lettera ufficiale, richiedendo che i contenuti dei suoi membri non vengano usati per l’addestramento (machine learning) di Sora 2 senza autorizzazione. (

La motivazione è chiara: molte delle opere generate da Sora 2 “somigliano strettamente” a contenuti giapponesi protetti da copyright. CODA sostiene che la mera replicazione (o produzione simile) come output possa costituire “riproduzione durante il processo di machine learning” e quindi violazione di copyright secondo il sistema giapponese.

In aggiunta, CODA contesta l’uso di una policy “opt-out” (cioè lasciar decidere ai titolari se farsi escludere) come insufficiente: secondo loro la legge giapponese richiede permesso preventivo, non la possibilità di obiettare dopo che il danno è già stato fatto.

Alibaba vince la sfida delle intelligenze artificiali nel trading cripto: il paradosso dell’algoritmo che batte Wall Street

Secondo il South China Morning Post e altri media, nel primo round dell’esperimento Alpha Arena condotto dal gruppo Nof1 Qwen3-Max ha ottenuto un ritorno del 22,32 % su un capitale iniziale di 10.000 USD in due settimane, superando altri cinque modelli (tra cui DeepSeek, OpenAI, Google DeepMind, xAI e Anthropic).
Solo DeepSeek V3.1 ha guadagnato (4,89 %), mentre i modelli statunitensi hanno registrato perdite pesanti (GPT-5 ha perso circa 62,66 %).

Coca-Cola e l’illusione natalizia dell’intelligenza artificiale

Coca-Cola è tornata con una nuova versione AI dei suoi spot natalizi “Holidays Are Coming”, replicando l’approccio controverso del 2024, ma con qualche miglioria superficiale.marchio ha scelto di evitare il rischio dell’“uncanny valley” umano, sostituendo le figure realistiche con animali (orsi polari, panda, bradipi) animati in uno stile incoerente che alterna momenti realistici a momenti cartooneschi, con movimenti innaturali come se fossero immagini piatte manipolate piuttosto che modelli 3D ben riggati. Su una cosa hanno corretto: le ruote dei camion ora si muovono, anziché scivolare staticamente sulla neve, come accadeva l’anno scorso.

Chatgpt e la falsa rivoluzione delle policy: come OpenAI ha cambiato tutto senza cambiare nulla

OpenAI ha confermato che ChatGPT continua a poter discutere e spiegare temi legali e sanitari solo che non può più offrire consigli personalizzati che richiedono una licenza professionale senza supervisioni adeguate. Karan Singhal, capo del Health AI in OpenAI, lo ha ribadito pubblicamente: le affermazioni che “ChatGPT smette di dare consigli legali o sanitari” sono false.

Un caffè al Bar dei Daini: OpenAI, AWS e la nuova geografia del potere digitale

Un caffè, uno di quelli amari, da bere lentamente mentre il mondo tecnologico si ricompone in silenzio. OpenAI ha appena firmato un accordo da 38 miliardi di dollari con Amazon Web Services, e la notizia è passata quasi come un normale aggiornamento di mercato. In realtà è uno di quei momenti in cui la placca tettonica dell’industria digitale si muove sotto i nostri piedi. L’accordo non è un semplice contratto di fornitura, è un patto di equilibrio tra potenze che fino a ieri si guardavano con diffidenza strategica. Microsoft, il principale investitore di OpenAI, osserva l’alleanza con AWS come un banchiere che presta denaro al suo concorrente. È un gesto di pragmatismo radicale: quando l’intelligenza artificiale diventa il nuovo petrolio, non puoi permetterti di litigare con chi possiede gli oleodotti.

Calcolo analogico con RRAM la rivoluzione silenziosa che potrebbe sostituire le GPU

Il calcolo analogico con RRAM è tornato dalle pagine dei vecchi libri di ingegneria come una bestia ben addestrata pronta a mangiarsi le GPU per colazione. Questo non è un esercizio di nostalgia; Si tratta di sfruttare matrici resistive per eseguire moltiplicazioni matrice-vettore e risolvere sistemi lineari grandi come quelli che compaiono nell’addestramento delle reti neurali, con efficienza energetica e throughput che, secondo i benchmark recenti, potrebbero superare le architetture digitali di tre ordini di grandezza.

Pagina 9 di 200

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie