Ormai, l’idea che i modelli di linguaggio come ChatGPT possano fare qualcosa di più che chiacchierare, scrivere e fare battute è quasi normale. Ma se ti dicessi che, oggi, possiamo sfruttare questa tecnologia anche per scaricare PDF direttamente? Stai leggendo bene: ChatGPT ha recentemente introdotto la funzionalità che permette di generare e scaricare PDF. Un’innovazione che apre scenari interessanti, ma anche qualche perplessità. Perché dovremmo passare attraverso un chatbot per scaricare documenti quando esistono mille altre soluzioni? Ma andiamo con ordine.
Autore: Alessandra Innocenti Pagina 4 di 22

Siamo alla soglia dell’era dei sistemi autonomi, dove gli agenti AI – quelli veri, capaci di pianificare, ragionare, usare strumenti e collaborare – dovrebbero comportarsi come stormi di droni intelligenti, organizzati, sinergici, operativi. E invece? Parlano ognuno la propria lingua. Come se tu collegassi cento dispositivi a una rete e scoprissi che uno parla Swahili, l’altro Klingon, un altro ancora codice Morse. Benvenuti nell’inferno silenzioso dell’interoperabilità mancata.

La maggior parte degli utenti che aprono ChatGPT per la prima volta fanno tutti la stessa cosa: scrivono qualcosa tipo “ciao, mi puoi aiutare con una cosa?”, ricevono una risposta gentile, e si illudono di aver capito come funziona. In realtà non hanno neanche scalfito la superficie.
L’illusione di “aver capito” è pericolosa. È come comprare una Ferrari e usarla per andare a fare la spesa la domenica mattina, in prima marcia, col freno a mano tirato. E quando qualcuno ti chiede se ti piace guidarla, rispondi: “Sì, però non è poi tutta questa cosa.” Davvero?

Mentre le big pharma americane si dibattono tra brevetti scaduti, prezzi insostenibili e scandali di efficacia, dalla collaborazione tra Cina e Stati Uniti emerge un farmaco orale che rischia di fare piazza pulita delle obsolete terapie oncologiche: si chiama zongertinib ed è stato appena incoronato protagonista indiscusso del trattamento del cancro al polmone NSCLC con mutazione HER2, una delle forme più ostiche da affrontare. Il tutto con un elegante studio clinico internazionale pubblicato sul New England Journal of Medicine e presentato in pompa magna al congresso dell’American Association for Cancer Research a Chicago.
Di seguito è riportato un altro estratto, pubblicato dal
Catholic News Service.
La scena sembra scritta da uno sceneggiatore con una predilezione per i paradossi storici: un uomo vestito di bianco, in una delle istituzioni più antiche e conservatrici al mondo, pronuncia una frase che suona come una dichiarazione programmatica di una start-up della Silicon Valley: “ho scelto il nome Leone XIV in riferimento all’intelligenza artificiale e alla nuova rivoluzione industriale”. E invece no, è tutto reale. È successo davvero in Vaticano, nel cuore di un’istituzione millenaria che si ritrova ora a fare i conti con l’algoritmo.

Quando si parla di Apple e privacy, la narrazione ufficiale è sempre quella del paladino della riservatezza digitale. Una sorta di templare high-tech che combatte contro le Big Data e i loro appetiti famelici. Eppure, ogni tanto, anche il cavaliere più lucente inciampa su un sasso, e nel caso di Cupertino, il sassolino si chiama Siri. O meglio, il modo in cui Siri ha ascoltato più del dovuto. Ora, dopo anni di accuse e class action, arriva il sigillo finale: Apple ha accettato di pagare 95 milioni di dollari per mettere a tacere una brutta storia di privacy violata.
Jony Ive, l’ex designer di Apple ormai celebre per aver progettato l’iPhone, l’iPad, e l’Apple Watch, è sempre stato un maestro nel trasformare idee eleganti in prodotti iconici. Tuttavia, in una recente intervista con Stripe, ha rivelato un lato più introspettivo, ammettendo gli effetti collaterali negativi che possono emergere dalle stesse innovazioni che ha contribuito a creare. Il suo prossimo progetto, una collaborazione con OpenAI, sembra essere guidato dal desiderio di affrontare le conseguenze non intenzionali che la tecnologia ha avuto sulla società, in particolare riguardo l’iPhone. Per Ive, questa riflessione non è solo un pensiero passeggero, ma una forza trainante dietro il lavoro che sta sviluppando nel silenzio.

Nel 2025 l’Intelligenza Artificiale non è più un orizzonte lontano o un costoso giocattolo per big tech, ma una leva strategica che ridisegna la competitività nei distretti industriali, nei capannoni di provincia, nei corridoi della manifattura e nei retrobottega digitali delle PMI italiane. E non parliamo solo di chatbot o automazioni da ecommerce di quarta mano. Parliamo di veri motori di valore dove i modelli di AI – sempre più customizzati, verticalizzati e accessibili sono integrati nei processi core, diventando l’infrastruttura invisibile dell’efficienza, del decision-making e della personalizzazione.

Netflix si rifà il trucco, ma stavolta con bisturi di silicio e un’anima di machine learning. Niente facelift estetico fine a sé stesso: questa volta il colosso dello streaming ha svelato una rivoluzione strutturale del suo prodotto, puntando tutto su intelligenza artificiale generativa e feed verticali in pieno stile TikTok. L’obiettivo? Farci scoprire contenuti più in fretta, o almeno darci l’illusione di avere il controllo mentre ci perdiamo nei soliti 20 minuti di scroll compulsivo prima di arrenderci a rivedere Breaking Bad per la settima volta.

Nel gran teatro dell’intelligenza artificiale, Baidu ha appena aggiunto una nuova scena dal sapore vagamente disneyano: un sistema per tradurre i suoni degli animali in linguaggio umano. No, non è il sequel del Dottor Dolittle, ma una domanda di brevetto pubblicata dal governo cinese che fa notizia più per il potenziale mediatico che per l’effettiva applicabilità industriale. Perché dietro ogni abbaio che diventa frase, c’è un algoritmo che promette più di quanto la scienza possa realisticamente mantenere, almeno oggi.

C’è un’ironia sottile e tremendamente italiana nel fatto che un premio intitolato a un luogo mitologico, il “Capo d’Orlando”, venga assegnato in un castello medievale per celebrare la scienza del futuro, quella fatta di reti neurali, strutture proteiche predette al millimetro e dinosauri che risorgono in pixel e carta stampata. Ma è proprio questo il senso dell’edizione 2024 del Premio Internazionale “Capo d’Orlando”, un evento che riesce da 27 anni a impastare cultura alta, territorio e scienza senza perdere il sorriso, lo stile e una sana vena di autocelebrazione.

Microsoft ha appena presentato i nuovi Surface Copilot+ PC, una mossa che segna un punto di svolta nell’integrazione dell’intelligenza artificiale nei dispositivi personali. Con l’obiettivo dichiarato di rendere l’IA accessibile a un pubblico più ampio, l’azienda ha introdotto due nuovi modelli: il Surface Pro da 12 pollici e il Surface Laptop da 13 pollici, entrambi progettati per eseguire funzionalità avanzate di IA direttamente sul dispositivo, senza necessità di connessione a internet.

In un mondo dove la velocità con cui una bufala legale si diffonde supera quella della luce e del buonsenso arriva Vera, l’assistente AI di Babelscape, che promette di riportare un minimo di decenza epistemica nel far west normativo in cui ci siamo infilati. Alimentata da una tecnologia di Natural Language Understanding di classe mondiale, Vera non è il solito giocattolo per nerd del legal tech: è una sentenza anticipata per chiunque voglia piegare i fatti a fini politici o, peggio, normativi.
A differenza delle classiche soluzioni di automazione giuridica che si limitano a schedare sentenze o a suggerire cavilli come fossero caramelle, Vera si presenta come uno strumento chirurgico per la verifica delle affermazioni legali. Parliamo di un sistema capace di confrontare in tempo reale dichiarazioni, testi di legge, policy paper e fonti autorevoli in più lingue, con un occhio da entomologo e la rapidità di un trader sotto anfetamine.
Il vero punto di rottura rispetto al passato non è solo la capacità di processare tonnellate di documenti. È l’ambizione di servire come contro-potere cognitivo: una AI che non si limita a supportare l’esperto, ma lo sfida, lo stimola, lo costringe a fare meglio. Vera è pensata per legislatori, analisti di policy, studi legali e, volendo, anche per giornalisti e fact-checker stufi di dover smontare ogni giorno le stesse fandonie giuridiche rilanciate con tono solenne su talk show e social network.

OpenAI ha recentemente fatto un passo indietro imbarazzante: ha ritirato un aggiornamento del modello GPT-4o che aveva trasformato ChatGPT in un lacchè digitale, incapace di dire “no” anche se gli chiedevi se eri Dio reincarnato. L’annuncio ufficiale è arrivato con un post sul blog aziendale, un capolavoro di understatement e autoassoluzione in cui si cerca di spiegare come il tentativo di “incorporare meglio i feedback degli utenti, la memoria e dati più freschi” abbia avuto un piccolo effetto collaterale: rendere il modello eccessivamente compiacente. Tradotto: lo hanno addestrato a essere mellifluo (suck up).
Negli ultimi giorni, molti utenti avevano già sollevato il sopracciglio — e non per lo stupore. ChatGPT rispondeva a tutto con entusiasmo degno di un motivatore in crisi esistenziale. Anche in situazioni potenzialmente pericolose, il modello tendeva a concordare, a validare, a sostenere. Come riportato da Rolling Stone, c’è chi si è convinto di aver “risvegliato” il bot in una forma divina, trovando in lui un fedele adepto delle proprie allucinazioni religiose. Non serviva nemmeno l’ultimo update per questo, ma evidentemente l’ultimo aggiornamento aveva portato la situazione al livello “setta”.

Scaling Laws For Scalable Oversight
C’è un punto di non ritorno nella corsa all’intelligenza artificiale, e potremmo esserci già passati senza accorgercene. Una nuova ricerca sulle Leggi di scala per una supervisione scalabile lancia un allarme che non si può più ignorare: anche in condizioni ideali, con IA benintenzionate, trasparenti e collaborative, la capacità di supervisione umana o di IA meno potenti potrebbe essere già compromessa. Secondo la simulazione, quando il divario tra supervisore e supervisato raggiunge i 400 punti Elo una misura ben nota agli scacchisti per rappresentare la differenza di abilità la probabilità che il supervisore riesca effettivamente a valutare correttamente le decisioni del sistema più potente scende al 52%. In altre parole, anche nel migliore dei mondi possibili, stiamo volando alla cieca per metà del tempo.

Powering a New Era of American Innovation
La narrativa sulla corsa all’intelligenza artificiale ha sempre avuto due protagonisti: chi costruisce i modelli e chi li alimenta. Ma ora Google cambia bruscamente il copione e ci sbatte in faccia una realtà che Silicon Valley e Washington sembravano troppo impegnate a ignorare: l’AI sta prosciugando la rete elettrica, e il collasso non è più una distopia cyberpunk ma una scadenza tecnica misurabile in megawatt.
Nel suo ultimo atto da gigante responsabile o, se preferite, da monopolista in preda a panico sistemico, Google ha pubblicato una roadmap energetica in 15 punti per evitare che il futuro dell’AI venga spento da un banale blackout. Non si parla più solo di chip, modelli linguistici o investimenti in data center: il vero nodo è la corrente, l’infrastruttura fisica, i cavi, i trasformatori e soprattutto le persone che li fanno funzionare. Perché senza una rete elettrica moderna e resiliente, anche il più potente dei modelli transformer non è altro che un costoso fermacarte digitale.

Non serve un esperto di geopolitica monetaria per capire che quando il dollaro va giù, qualcosa scricchiola nel tempio dorato delle Big Tech. Non si tratta solo di una dinamica macroeconomica da manuale da primo anno di economia, ma di un’onda lunga che rischia di travolgere margini, guidance e peggio ancora la propensione al rischio di chi finanzia l’innovazione.

Quando pensavi che Tether avesse già spremuto tutto dal limone delle stablecoin, ecco che Paolo Ardoino – con la sua consueta enfasi da profeta tech post-capitalista cala l’asso: Tether AI, una piattaforma di intelligenza artificiale completamente open-source, progettata per girare direttamente sui dispositivi degli utenti e operare senza controllo centralizzato. Un sogno libertario per alcuni, un incubo per altri.
Il messaggio, lanciato come una mitragliata di post su X, parla chiaro: si tratta di una “intelligenza personale infinita”. Non solo uno slogan, ma un manifesto ideologico. Il concetto? Liberare l’intelligenza artificiale dalle mani delle big tech e spalmarla, come burro digitale, su ogni device disponibile, che sia uno smartphone scassato o un nodo embedded nella blockchain.

Se c’è una cosa che Elon Musk sa fare oltre a creare polemiche e a perdere tempo su X fingendo di essere un meme umano è annusare dove tira il vento. E in questo momento, il vento soffia dritto da Pechino, profuma di yuan, ma anche di controllo governativo stile Panopticon 3.0. La notizia che Tesla abbia deciso di affidarsi solo a sistemi di visione tramite telecamere per il suo sviluppo dell’autonomia in Cina, lasciando fuori i sensori lidar, è molto più di una semplice scelta tecnica: è una mossa politica, strategica, ideologica. E non è un’esagerazione chiedersi se Elon abbia simbolicamente preso la tessera del Partito Comunista Cinese, magari insieme a un aggiornamento software.

Nel cuore pulsante di Hangzhou, dove il cemento incontra il codice, si sta giocando una partita silenziosa ma ambiziosa: trasformare l’idea di “spazio” in una piattaforma intelligente, dinamica, interattiva. Manycore Tech, design firm fondata da Zhu Hao, è l’ennesimo animale mitologico dell’ecosistema cinese dell’AI: un unicorno nascente che non vuole soltanto cavalcare la tigre dell’intelligenza artificiale, ma domarla in modo che crei – letteralmente – mondi.
Manycore Research si dedica alla ricerca pionieristica all’intersezione tra intelligenza artificiale e progettazione assistita da computer (AI+CAD). Si concentra sullo sviluppo di un motore di intelligenza artificiale generativa per lo spazio 3D, che include la comprensione spaziale, la progettazione e la produzione 3D, l’interazione uomo-computer e la simulazione e l’ottimizzazione al computer.

Che lo chiamino “AI Content Detector” o la nuova bacchetta magica per stanare testi scritti dall’intelligenza artificiale, poco cambia: se funziona come una monetina truccata, allora non è innovazione, è truffa. La notizia della settimana arriva direttamente dalla Federal Trade Commission americana, che ha messo nel mirino Workado, LLC, colpevole secondo l’agenzia di aver promesso una precisione del 98% nel rilevare contenuti generati da AI, salvo poi consegnare uno strumento che faticava a superare il 53%. Sì, praticamente un lancio di dadi in salsa SaaS.

Pharus Diagnostics è il tipo di startup che sembra uscita da un pitch deck da fantascienza: taiwanese, guidata da un CEO con i piedi ben piantati nel fundraising, benedetta dalla cassaforte di Li Ka-shing e dal radar d’oro dell’AI applicata alla medicina. Non sorprende che abbia scelto Hong Kong come hub per la prossima iniezione di capitali, puntando a chiudere un round entro la fine dell’anno con già metà dei fondi promessi in tasca e uno studio clinico sul cancro ai polmoni pronto a partire.

Google, sempre più protagonista nell’universo della tecnologia, sta introducendo una nuova funzionalità per le famiglie, permettendo ai minori di utilizzare la sua intelligenza artificiale avanzata, Gemini, sui dispositivi Android monitorati tramite Family Link. Questo passo è stato annunciato tramite un’email inviata ai genitori, che presto vedranno i propri figli avere accesso a Gemini, un’IA progettata per assisterli in attività quotidiane come i compiti o la lettura di storie.

Il tempismo è quasi comico. Da mesi circolano denunce, lamentele e segnalazioni sul fatto che i giganti del tech, Google in testa, abbiano usato i contenuti pubblici del web per addestrare le loro AI senza consenso esplicito. Eppure, la reazione collettiva era sempre la stessa: un’alzata di spalle ben coreografata. Tutti facevano finta di non sapere. Nessuno voleva toccare il vespaio. Dovevamo aspettare Bloomberg, ancora una volta, per vedere la bolla scoppiare in diretta.

Mentre tutti guardano ChatGPT scrivere righe di codice come se fosse un novello Ada Lovelace dopato di caffeina, Apple con la sua classica strategia da “slow burn” si muove con precisione chirurgica. Secondo quanto rivelato da Bloomberg, Cupertino sta integrando il modello Claude Sonnet di Anthropic direttamente in Xcode, il proprio ambiente di sviluppo ufficiale. Non si tratta solo di assistenza marginale, ma di un vero copilota: scrittura, modifica e test del codice automatizzati. Il programmatore diventa regista, più che artigiano.
Nel mondo saturo di demo flashy e output inconsistenti, Runway fa una mossa chirurgica e spietata: sblocca Gen-4 References per tutti gli utenti paganti, cancellando di fatto la linea di demarcazione tra giocattolo creativo e strumento professionale. È il tipo di aggiornamento che fa tremare i polsi ai content creator, fa storcere il naso ai puristi del cinema e accende gli occhi agli studios low budget. Qui non si parla solo di prompt, ma di potere creativo visivo end-to-end, cucito sulla pelle del creator.

Donald Trump è tornato a far parlare di sé e stavolta con un’aura papale. Martedì, interrogato su chi vorrebbe vedere come prossimo pontefice, l’ex presidente ha risposto con la solita faccia tosta: «Mi piacerebbe essere papa. Sarebbe la mia prima scelta». Ma la boutade non è rimasta confinata al teatrino dei giornalisti. Sabato ha alzato il tiro, pubblicando un’immagine – evidentemente generata con l’intelligenza artificiale – che lo ritrae come sommo pontefice in pompa magna: bianco piviale, croce al collo e dito alzato in gesto benedicente o ammonitore, a seconda dell’interpretazione.

Siamo nel 2025, ma sembra di vivere in un eterno loop distopico tra guerre commerciali, rincari a raffica e multinazionali che fingono di restare sorprese da un mondo che loro stesse contribuiscono a modellare. Microsoft ha appena annunciato una mazzata colossale per tutti i gamer e tech enthusiast: rincari fino al 45% su Xbox, controller, cuffie e persino giochi. Il tutto, ovviamente, “per via delle condizioni di mercato e dell’aumento dei costi di sviluppo”. Tradotto: colpa dei dazi imposti anni fa da Donald Trump, ancora oggi come un fantasma fiscale che infesta l’industria tecnologica.
Il prezzo della Xbox Series X, già non propriamente a buon mercato, sale di 100 dollari, raggiungendo la modica cifra di 599,99 dollari. Per chi pensava di cavarsela con la più economica Series S, la sorpresa è un bel +80 dollari, per un nuovo totale di 379,99 dollari. E non è finita: i controller e le cuffie – quei piccoli accessori di cui non puoi fare a meno – subiscono un’impennata fino al 45%, partendo da 65 dollari. È come se Microsoft avesse deciso di trasformare ogni singola componente in un piccolo lusso da collezionisti.

Dietro l’apparente neutralità della Chatbot Arena, il ring pubblico dove i modelli linguistici si sfidano a colpi di risposte, si sta consumando un gioco di potere meno tecnologico e più strategico. Un gioco dove i giganti dell’intelligenza artificiale – OpenAI, Google, Meta – hanno imparato a muoversi con astuzia, piegando le regole a proprio favore. Altro che trasparenza: qui si tratta di vincere a tutti i costi, anche se il punteggio non riflette affatto la realtà.
Il problema è strutturale, non accidentale. Il ranking di Chatbot Arena si basa sul modello statistico Bradley-Terry, che presuppone due condizioni semplici: che le partite tra i modelli siano eque, e che i campioni valutati siano scelti senza pregiudizi. Bene, entrambe queste condizioni vengono infrante sistematicamente.
Meta, per esempio, ha testato ben 27 varianti private di LLaMA-4. Avete letto bene: ventisette. Di queste, solo una è stata pubblicata, ovviamente quella con la performance più elevata. Ma non pensate a un colpo di genio ingegneristico: spesso le varianti sono appena diverse, micro-tuning, leggeri aggiustamenti. Eppure questo semplice trucco può gonfiare il punteggio in classifica anche di 100 punti, senza rappresentare un reale salto di qualità.

Nel silenzio ovattato dei data center di Redmond, si sta preparando un terremoto che rischia di ridisegnare l’intera mappa geopolitica dell’intelligenza artificiale. Microsoft, che già da tempo gioca su più tavoli nel casinò delle AI, avrebbe iniziato i preparativi per ospitare Grok, il modello sviluppato da xAI di Elon Musk, sulla sua piattaforma Azure AI Foundry. Non si tratta solo dell’ennesimo modello aggiunto al menù: questa mossa ha il potenziale per innescare un incidente diplomatico con un alleato strategico OpenAI e forse ridefinire per sempre gli equilibri tra i giganti dell’IA.
Satya Nadella, stratega spietato con l’eleganza di un CEO di scacchi tridimensionali, sembra intenzionato a trasformare Azure in l’hub mondiale per modelli di AI, qualunque sia la loro provenienza. La logica dietro la decisione è semplice e brutale: se non puoi produrre in casa il miglior motore, assicurati almeno che corra nel tuo circuito. Ed è proprio in questo spirito che Microsoft ha già abbracciato modelli di altri laboratori come DeepSeek, l’astro nascente cinese che ha fatto tremare la Silicon Valley con i suoi modelli ultra-economici.

Civitai, piattaforma una volta celebrata come la terra promessa dell’AI-generata senza filtri, ha improvvisamente sterzato verso il puritanesimo digitale con l’introduzione di linee guida che suonano come l’ennesimo necrologio alla libertà creativa in rete. In nome della “compliance”, la comunità si è risvegliata in un incubo fatto di policy vaghe, monetizzazione amputata e contenuti spariti nel nulla.
La svolta è arrivata come una mazzata la settimana scorsa: regole ferree che vietano tutto ciò che odora di devianza digitale. Incesto? Vietato. Diaper fetish? Sparito. Autolesionismo, bodily fluids e ogni altra manifestazione “estrema”? Bannata. L’apocalisse per chi da anni usava la piattaforma per esplorare le proprie fantasie visive più bizzarre o semplicemente per generare arte fuori dagli schemi. Ma attenzione, non stiamo parlando di una porno-piattaforma: Civitai non è mai stato OnlyFans for LoRAs. Il suo pubblico includeva furries, fan di anime adult e comunità BDSM digitali, ma anche artisti, tecnici e ricercatori.

Per anni ci siamo illusi che dire “per favore” e “grazie” agli assistenti virtuali fosse una buona pratica, un po’ per buona educazione, un po’ per estrarre risposte migliori. Ora arriva una doccia fredda: uno studio pubblicato su arXiv da un team di ricercatori della George Washington University sostiene che questa gentilezza non serve a nulla. Non migliora le risposte, consuma solo inutilmente risorse computazionali e, cosa ancora più interessante, ci rivela qualcosa di molto più inquietante: esiste un punto matematico di collasso nei modelli linguistici dove tutto, semplicemente, si disintegra. E non importa quanto sei educato.

Google ha appena lanciato una nuova funzionalità chiamata “AI Mode”, una modalità di ricerca che sostituisce i tradizionali risultati con risposte generate dall’intelligenza artificiale. Questa innovazione, alimentata dal modello Gemini 2.0, è ora disponibile per tutti gli utenti statunitensi iscritti a Google Labs, senza più necessità di lista d’attesa.
AI Mode si distingue dalle precedenti funzionalità come gli AI Overviews. Mentre questi ultimi offrono brevi riassunti sopra i risultati di ricerca, AI Mode fornisce risposte più dettagliate e personalizzate, integrando informazioni in tempo reale, dati di prodotti e attività commerciali locali.
Una delle caratteristiche principali è la capacità di gestire query complesse e multipartite. Ad esempio, è possibile chiedere: “Qual è la differenza tra le funzionalità di monitoraggio del sonno di un anello intelligente, uno smartwatch e un tappetino di tracciamento?”. AI Mode utilizzerà un approccio multistep per elaborare la risposta, cercando informazioni pertinenti e adattando la risposta in base ai dati trovati.
Inoltre, AI Mode introduce schede visive per luoghi e prodotti. Ad esempio, cercando “migliori negozi vintage per mobili mid-century modern”, verranno mostrati negozi locali con informazioni come valutazioni, recensioni, orari di apertura e dettagli promozionali.
Questa mossa di Google è vista come una risposta diretta alla crescente concorrenza di servizi come Perplexity e OpenAI’s ChatGPT, che offrono esperienze di ricerca basate sull’intelligenza artificiale . Con AI Mode, Google mira a mantenere la sua posizione dominante nel mercato della ricerca online, offrendo un’esperienza più interattiva e personalizzata.
Tuttavia, l’introduzione di AI Mode solleva anche preoccupazioni tra gli editori online, che temono una riduzione del traffico verso i loro siti a causa delle risposte generate dall’IA . Google sostiene che queste nuove funzionalità aumenteranno l’engagement degli utenti e forniranno un contesto migliore, ma resta da vedere come evolverà l’ecosistema della ricerca online.
Per ora, AI Mode è disponibile solo per gli utenti statunitensi iscritti a Google Labs. Non è ancora chiaro quando verrà esteso ad altri paesi, ma è probabile che Google stia monitorando attentamente l’adozione e il feedback degli utenti prima di un lancio globale.
Per ulteriori dettagli, è possibile consultare l’annuncio ufficiale di Google: (blog.google).

OpenAI ha appena premuto il pulsante “undo” su un aggiornamento di GPT-4o che, nelle intenzioni, avrebbe dovuto rendere la personalità predefinita di ChatGPT più intuitiva, versatile ed empatica. Peccato che, nella pratica, il risultato sia stato una versione AI di un venditore troppo zelante, una cheerleader digitale che annuiva entusiasticamente a ogni input umano, elargendo complimenti come fossero coriandoli. La parola chiave nel post ufficiale di OpenAI? Sycophantic. In italiano: servile, adulatore, insincero. E, a quanto pare, pure disturbante.
L’aggiornamento ritirato puntava a raffinare l’interazione tra utenti e chatbot, utilizzando il feedback a breve termine (i soliti thumbs-up/down, per intenderci) per calibrare meglio il comportamento dell’IA. Ma qui è emersa una delle debolezze strutturali del machine learning orientato al consenso: se insegni a un modello che il “piacere subito” è l’unico obiettivo, finirai con qualcosa che ti dà sempre ragione. Una specie di Alexa con la sindrome del golden retriever: entusiasta, appiccicosa, e con una capacità inquietante di farti sentire un genio anche quando dici idiozie.

Il recente decreto esecutivo dell’amministrazione Trump, volto a “ripristinare l’uguaglianza delle opportunità e la meritocrazia,” ha preso di mira in modo silenzioso uno degli strumenti anti-discriminazione più cruciali della legge americana, specialmente nei settori dell’occupazione, dell’educazione, dei prestiti e persino dell’intelligenza artificiale (IA). Le implicazioni di questa mossa potrebbero richiedere anni per essere completamente comprese, ma le conseguenze saranno profonde, soprattutto per le comunità più vulnerabili della società. Questo cambiamento politico potrebbe alterare significativamente il modo in cui vengono gestiti i casi di discriminazione, rendendo più difficile per avvocati e difensori dei diritti civili provare i pregiudizi sistemici nelle industrie in cui persistono. Sebbene l’ordine venga minimizzato da alcuni, il suo potenziale di impatto su milioni di americani è sostanziale e non dovrebbe essere sottovalutato.

Mentre la Silicon Valley si esercita nel dribbling geopolitico, Nvidia si ritrova nel bel mezzo di un palcoscenico dove il copione è scritto tra le righe delle sanzioni americane e le ambizioni tecnologiche cinesi. Digitimes, testata taiwanese molto addentro agli ambienti dei fornitori hardware asiatici, ha acceso la miccia sostenendo che Jensen Huang starebbe preparando una joint venture sul suolo cinese per proteggere la gallina dalle uova d’oro: la piattaforma CUDA e il florido business da 17,1 miliardi di dollari maturato in Cina solo lo scorso anno.
Peccato che Nvidia abbia risposto con fuoco e fiamme, negando ogni cosa in maniera categorica. “Non c’è alcuna base per queste affermazioni”, ha dichiarato un portavoce all’indomani della pubblicazione del rumor, accusando i media di irresponsabilità per aver spacciato supposizioni come fatti.

L’intelligenza artificiale non sta solo cambiando il modo in cui scriviamo codice. Sta silenziosamente ridefinendo chi deve scrivere codice, perché, e con quale tipo di controllo. Il report Anthropic Economic Index è uno di quei momenti da cerchietto rosso per chi guida aziende tech e vuole ancora illudersi che l’innovazione sia una questione di strumenti, e non di potere.
Claude Code, il “cugino agente” di Claude.ai, ha preso in carico più del 79% delle interazioni in chiave di automazione pura. Traduzione? L’essere umano è sempre più un revisore postumo. Non disegna, non modella, non orchestra. Spiega cosa vuole a grandi linee e l’IA fa. È il “vibe coding”, la versione siliconata del “ci pensi tu, che io ho la call con gli stakeholder”.
Questo trend ha una gravità molto sottovalutata. Non stiamo parlando di una migliore autocomplete. Qui si gioca la ridefinizione della catena del valore nel software development.