Salesforce ha tagliato 4.000 posti di lavoro nel supporto clienti mentre gli agenti AI prendono il loro posto, ha detto recentemente il CEO Marc Benioff e che è in missione per trasformare l’azienda in un “enterprise agentico”.
Autore: Alessandra Innocenti Pagina 4 di 28
La Federal Trade Commission (FTC) ha recentemente emesso un ordine definitivo contro Workado, un’azienda statunitense che sviluppa strumenti di rilevamento dei contenuti generati da intelligenza artificiale (AI). L’ordine impone a Workado di cessare immediatamente qualsiasi pubblicità riguardante l’efficacia dei suoi prodotti di rilevamento AI, a meno che non disponga di prove competenti e affidabili che supportino tali affermazioni. (Federal Trade Commission)
Il caso ha avuto inizio quando Workado ha promosso il suo AI Content Detector come “98% accurato” nel determinare se un testo fosse stato generato da AI o scritto da un essere umano. Tuttavia, test indipendenti hanno rivelato che la precisione del prodotto era solo del 53% su contenuti di uso generale, paragonabile a una moneta lanciata.

Dal 1° settembre 2025, la Cina ha imposto una nuova legge che obbliga tutte le piattaforme online a etichettare esplicitamente e implicitamente i contenuti generati dall’intelligenza artificiale (IA). Questa normativa, promossa dalla Cyberspace Administration of China (CAC) e da altre agenzie governative, mira a contrastare la disinformazione, la manipolazione dell’opinione pubblica e le frodi online.
Le principali piattaforme social cinesi, tra cui WeChat (Weixin), Douyin (l’equivalente cinese di TikTok), Weibo e Xiaohongshu, hanno implementato nuove funzionalità per conformarsi a questa legge. WeChat richiede ai creatori di contenuti di dichiarare volontariamente se un contenuto è stato generato dall’IA. Douyin incoraggia l’aggiunta di etichette visibili a ogni contenuto generato dall’IA e rileva la provenienza di ogni contenuto attraverso i metadati.
L’ultima frontiera del degrado digitale non è un nuovo meme o uno scandalo politico, ma video così realistici da sembrare rubati dal mondo reale, in cui donne in bikini intervistano passanti per strada mentre ricevano commenti osceni. Tutto falso, rigorosamente prodotto da strumenti di intelligenza artificiale capaci di generare contenuti iperrealistici da un semplice prompt testuale. La chiamiamo “AI slop”, roba industriale, economica, prodotta a raffica e pronta a invadere Instagram, TikTok e X come un’onda tossica.
Nel cuore della rivoluzione sanitaria, dove l’innovazione si fonde con la tradizione, emerge l’Eko Duo: un fonendoscopio digitale che non solo ascolta il battito del cuore, ma lo comprende grazie all’intelligenza artificiale. Questo dispositivo, frutto della collaborazione tra Eko Health e istituzioni come l’Imperial College di Londra e la British Heart Foundation, rappresenta un salto quantico nella diagnosi precoce delle malattie cardiache.
L’Eko Duo integra un fonendoscopio digitale con un elettrocardiogramma (ECG) a singolo canale, permettendo ai medici di registrare simultaneamente i suoni cardiaci e l’attività elettrica del cuore. Grazie a un algoritmo di intelligenza artificiale, addestrato su un vasto database di registrazioni cardiache, il dispositivo è in grado di rilevare anomalie sottili, impercettibili all’orecchio umano. In meno di 15 secondi, l’Eko Duo fornisce una diagnosi preliminare, identificando condizioni come l’insufficienza cardiaca, le aritmie e le malattie valvolari.
Chi pensava che la sicurezza fosse un affare confinato ai server delle grandi aziende non ha ancora osservato il nuovo mercato in crescita: la concierge cybersecurity. Un’industria silenziosa ma sempre più redditizia che vende la stessa tranquillità che un tempo fornivano guardie armate e chauffeur blindati, con la sola differenza che i proiettili ora viaggiano sotto forma di malware, phishing e deepfake. Se un tempo il lusso era farsi portare ovunque con un’autista privato, oggi il vero status symbol è avere un team di hacker pentiti pronti a difendere la propria identità digitale. È un passaggio storico che mette in scena la metamorfosi della sicurezza: dal fisico al virtuale, dall’impenetrabilità del corpo all’inviolabilità dei dati.
Il mito della diversificazione cade sempre quando ci si sporca le mani con i numeri. Nvidia ha appena chiuso un trimestre da record, 46,7 miliardi di dollari di ricavi con un aumento del 56% su base annua, spinta da quella che tutti ormai chiamano “l’onda lunga” dei data center per l’intelligenza artificiale. Ma poi si va a leggere il dettaglio della SEC filing e scopri che quasi il 40% di quei soldi arriva da due soli clienti. Non partner vaghi o start-up in cerca di GPU: due entità precise, etichettate come “Customer A” e “Customer B”, che insieme hanno scritto l’assegno più pesante della storia recente dei semiconduttori.
In un mondo dove l’automazione è la norma e l’intelligenza artificiale è la chiave per il futuro, AWS ha appena rilasciato una guida dettagliata su come costruire agenti autonomi in grado di pensare, adattarsi e prendere decisioni senza supervisione costante. Questa guida rappresenta un passo significativo verso l’adozione di agentic AI, un paradigma che promette di rivoluzionare il modo in cui interagiamo con la tecnologia.
I data scientist sono stanchi. Non dei dati. Quelli abbondano, tracimano, implodono. Sono stanchi dei tool. Delle pipeline spezzettate, dei notebook Frankenstein, dei deployment che somigliano a esperimenti nucleari. Oracle, storicamente allergica al minimalismo, ha finalmente capito che per vincere in un mondo dominato da GPU, embedding e inferenza neurale serve una cosa sola: coerenza. E con Oracle Machine Learning per Python 2.1, lancia una provocazione in codice: “Perché separare l’intelligenza dai dati, quando puoi integrarli nel cuore stesso del database?”
Un video di un concerto condiviso da Will Smith sta attirando l’attenzione online dopo che gli spettatori hanno accusato che presentava folle generate dall’IA.
Il video, pubblicato sia su Instagram che su YouTube, mostra immagini del pubblico dai concerti di Smith. Tuttavia, alcuni spettatori hanno notato alcune incongruenze come cartelli illeggibili, volti distorti e un utente che ha affermato di aver visto una persona con un braccio extra.
Il video si intitola ‘La mia parte preferita del tour è vedervi tutti da vicino…’, il che è divertente, perché se davvero vedesse le persone così da vicino, scatenerebbe istintivamente The Slap 2.0,” ha scritto Wren Graves su Consequence. Con l’aumento dell’uso degli strumenti di IA nella musica e nell’intrattenimento, i dibattiti continuano sul loro ruolo nel lavoro creativo, sollevando ulteriori domande su autenticità e trasparenza.

La storia del cosiddetto “Nano Banana” è l’ennesimo esempio di quanto il marketing tecnologico giochi a mascherare la sostanza con un po’ di ironia. Il nome faceva sorridere, evocava qualcosa di effimero, un giocattolo digitale con poca ambizione. Poi si è scoperto che dietro quel soprannome c’era in realtà il nuovo modello Gemini 2.5 Flash Image di Google. Altro che banana: parliamo di un colosso che ha deciso di alzare il livello nella guerra delle immagini generate dall’intelligenza artificiale.
Parlare di modelli di intelligenza artificiale oggi significa affrontare un paradosso intrigante: strumenti straordinari capaci di conversazioni fluide e analisi complesse, ma soggetti a errori clamorosi. ChatGPT e Claude rappresentano l’apice della generazione linguistica automatica, ma non sono infallibili. L’illusione della perfezione nasce dalla loro apparenza di conoscenza totale, mentre la realtà è più fragile, stratificata e, a tratti, comicamente imperfetta. La radice di questi problemi non risiede in un singolo difetto, ma nella complessa interazione tra design del modello, input umano e infrastruttura tecnologica.
Prompt Architecture: perché l’era del “scrivilo e spera” è finita
La stagione ingenua dei prompt buttati a caso nella chat e del “vediamo che succede” è finita. Non perché l’abbia detto qualche consulente improvvisato, ma perché ormai si gioca a un altro livello. I Large Language Models non sono più giocattoli per generare email creative. Sono diventati sistemi complessi che devono interpretare documenti legali, supportare decisioni finanziarie o persino gestire conversazioni con clienti reali. E allora, o si costruisce con metodo o ci si condanna all’irrilevanza digitale. Il problema non è più l’intelligenza artificiale in sé, ma come noi umani scegliamo di comunicare con lei. La chiamano prompt architecture, ed è la nuova ingegneria invisibile che distingue il dilettante dal professionista.
Il Giappone ha appena deciso di giocare a dadi con la genesi umana, autorizzando la creazione di embrioni a partire da cellule staminali pluripotenti indotte, senza bisogno di ovociti o spermatozoi convenzionali. In termini pratici, significa che un frammento di pelle potrebbe, in laboratorio, diventare la base di una nuova vita. La tecnica, nota come gametogenesi in vitro (IVG), non è fantascienza: cellule adulte vengono riprogrammate in stati pluripotenti e poi guidate a differenziarsi in gameti funzionali. L’embrione risultante non è più un residuo di IVF tradizionale, ma un prodotto di bioingegneria pura, replicabile a scala industriale per studi scientifici.
Il blog post di Netflix sull’uso dell’intelligenza artificiale generativa nei processi creativi sembra un manuale di buone maniere digitali, ma in realtà è un atto di pura autodifesa. Dietro la patina di etica e responsabilità si nasconde la verità più cinica: Netflix non vuole trovarsi né nei tribunali né sulle prime pagine dei giornali come il simbolo della Hollywood che ruba l’anima agli attori attraverso la macchina algoritmica. È un documento che serve meno ai registi e più agli avvocati, meno ai creativi e più agli investitori. Non è una guida, è un disclaimer travestito da manifesto etico.
Musk vs Microsoft: il progetto “Macrohard” di xAI
Elon Musk ha lanciato una provocazione prendendosela con Microsoft. In un post su X (ex-Twitter) del 22 agosto, Musk ha invitato il pubblico a “Join @xAI and help build a purely AI software company called Macrohard”. In pratica, xAI la sua startup dedicata all’intelligenza artificiale starebbe vagheggiando la creazione di un’azienda software “pura” basata su AI, soprannominata scherzosamente “Macrohard”, per simulare le attività di colossi come Microsoft che non producono hardware fisico. Musk ha sottolineato che “dato che aziende come Microsoft non producono hardware, è in linea di principio possibile simularle interamente con l’AI. La notizia è supportata anche da evidenze ufficiali: in data 1 agosto risulta infatti depositato presso lo U.S. Patent Office un marchio Macrohard attribuito a xAI. Al momento mancano ulteriori dettagli, ma l’idea è chiara: Musk punta a sfidare il software tradizionale puro con soluzioni basate sull’AI.
AI browsers: la sicurezza è un’illusione?
L’ascesa dei browser potenziati dall’intelligenza artificiale promette di semplificare la nostra vita digitale: acquisti online, gestione delle email, operazioni bancarie. Ma dietro questa facciata di comodità si cela una realtà ben più inquietante. Secondo un recente rapporto di Guardio, questi assistenti digitali possono essere facilmente manipolati per esporre dati sensibili o cadere in trappole di phishing. La domanda sorge spontanea: stiamo davvero migliorando la nostra sicurezza o stiamo solo scambiando una minaccia per un’altra?
C’è qualcosa di ironico nel vedere IBM e NASA alleate per decifrare il Sole. Per decenni abbiamo trattato la nostra stella come un orologio impeccabile, una macchina perfetta che scandiva il tempo agricolo e industriale senza sorprese. Poi sono arrivati i satelliti, le reti elettriche globali, il GPS e la dipendenza patologica da infrastrutture digitali che si sgretolano con un colpo d’aria elettromagnetica. All’improvviso il Sole non è più un’icona da cartolina ma un potenziale nemico geopolitico. È qui che entra in scena Surya, il modello di intelligenza artificiale lanciato da NASA e IBM, un mostro addestrato su nove anni di dati solari che promette previsioni più precise del 16 per cento rispetto a tutto ciò che avevamo prima. Non stiamo parlando di percentuali astratte: quel margine può essere la differenza tra un blackout continentale e un aeroporto che continua a funzionare.

In un mercato saturo di librerie ready-made come Hugging Face, questo repository non è un’alternativa, ma un atto di dissoluzione dell’“effetto pantone”: ti costringe a smontare il motore, capire ogni ingranaggio, e ricostruirlo con le tue mani.
Il progetto è l’implementazione ufficiale del libro Build a Large Language Model (From Scratch) di Sebastian Raschka, pubblicato da Manning. Non è un testo di facciata: comprende codice in Python, notebook Jupyter esplicativi e una guida capillare che copre ogni fase, dalla tokenizzazione fino all’addestramento, passando per l’attenzione multi-head e il fine-tuning per istruzioni.
San Francisco, 21 agosto 2025 Anthropic, startup di intelligenza artificiale nota per i suoi avanzati modelli linguistici e per l’attenzione alla sicurezza e affidabilità, è prossima a concludere un accordo per raccogliere fino a 10 miliardi di dollari in un nuovo round di finanziamento. Questo capitale massiccio, che più che raddoppierebbe quanto previsto solo pochi mesi fa, potrebbe portare la valutazione della società a circa 170 miliardi di dollari, posizionandola tra le aziende AI più preziose al mondo.
La proposta di uno scambio di territori tra Ucraina e Russia, che prevede la cessione di porzioni della regione di Donetsk in cambio di un cessate il fuoco e garanzie di sicurezza occidentali, ha suscitato reazioni di rabbia e incredulità tra le comunità ucraine, in particolare a Slovyansk. Molti residenti considerano questa proposta un tradimento della loro sovranità nazionale e un’offesa alla memoria dei soldati caduti. Svitlana Kuznetsova, che ha perso il nipote in battaglia, ha dichiarato che lascerebbe la sua casa di una vita se le forze russe prendessero il controllo della città.

Excel ha sempre avuto un fascino strano: metà foglio di calcolo, metà confessionale aziendale. Dentro le sue celle si sono accumulati vent’anni di contabilità, frustrazioni e colonne di dati che nessuno legge. Ora Microsoft decide di fare il salto quantico e infila l’intelligenza artificiale direttamente nella formula più banale, trasformando l’insopportabile “=SUM(A1:A10)” in un surrogato di ChatGPT. Basta scrivere “=COPILOT(‘Classify this feedback’, D4:D18)” e il miracolo avviene: l’IA ti restituisce classificazioni ordinate senza che tu debba più assumere uno stagista in stage non retribuito. È come se le celle si animassero, pronte a rispondere a qualsiasi domanda in linguaggio naturale. Sembra un dettaglio tecnico, ma in realtà è un colpo di stato nel cuore dell’ufficio moderno.
La nuova era del prompt engineering: perché scrivere meglio è più importante che scrivere di più
Negli ultimi mesi, chi lavora con modelli avanzati di intelligenza artificiale come GPT-5 ha iniziato a notare un fenomeno curioso. Non è più la quantità di istruzioni a fare la differenza, ma la struttura del prompt. Gli sviluppatori di OpenAI lo suggeriscono quasi sottovoce, come se fosse un segreto da non divulgare troppo. Prompt efficaci ora significano risultati più rapidi, output più precisi e meno spreco di risorse computazionali. Curioso come, dopo anni di “più parole = meglio”, ci si renda conto che il vero vantaggio sta nella strategia sottile.
Immagina un apparecchio con lente e touchscreen, che scatta fotografie e traduce il nome dell’oggetto in tempo reale nella lingua che vuoi italiano, francese, cinese, hindi, tedesco, giapponese, coreano, spagnolo… e anche 34 dialetti, da quello egiziano all’arabo tunisino al mandarino taiwanese. È come se un dizionario tascabile si avvicinasse troppo ai bambini, li spia e insieme li istruisce.
Dex è stato creato da tre genitori in fuga da un eccesso di schermo passivo. Hanno ricevuto 4,8 milioni di dollari per l’idea di riportare i piccoli nel mondo reale, farli pensare, correre, interagire con curiosità, non solo premere “prossimo” su un’app. Tecnicamente sofisticato, quasi magico nella sua innocenza: un gioiello di design che ha persino vinto il Red Dot per la sua estetica “guarding-glass into hidden wonders”, intuitivo per manine e fatto con materiali eco-friendly.
La presentazione del nuovo androide femminile di Realbotix non è solo un passo avanti nella robotica o nell’intelligenza artificiale, ma una provocazione culturale. Dietro l’apparente meraviglia tecnologica si nasconde una domanda scomoda: stiamo costruendo macchine per colmare bisogni emotivi o per cementare stereotipi di genere? L’androide non è una semplice applicazione di AI, ma un riflesso inquietante di desideri umani plasmati da secoli di sessismo e narrazioni culturali. La capacità di imitare emozioni, di ricordare preferenze e di modulare la personalità sembra inizialmente un prodigio di ingegneria, ma in realtà solleva interrogativi etici profondi: quanto della nostra interazione sociale stiamo trasferendo a un oggetto programmato per compiacere?
Il mondo della tecnologia del sonno sembra più una fiaba per venture capitalist che una scienza concreta, e Eight Sleep si trova proprio nel cuore di questa narrativa. La recente raccolta di 100 milioni di dollari da parte dell’azienda non è solo una mossa finanziaria, ma un manifesto di ambizione: potenziare la sua roadmap di intelligenza artificiale con un “agente AI per l’ottimizzazione del sonno”. Chi legge troppo velocemente potrebbe pensare che la macchina dormirà al posto vostro. Non è così. L’agente AI promette di regolare il letto secondo i vostri schemi di sonno, simulando migliaia di “gemelli digitali” per ciascun utente e prevedendo risultati attraverso modelli sofisticati. In pratica, è un computer che impara come voi dormite, ma senza fare il sogno al posto vostro.
Nano banana è un nome che suona come uno scherzo partorito da un gruppo di ricercatori troppo stanchi o troppo ironici per chiamare il loro modello con la solita sigla pseudo-scientifica piena di trattini e numeri. Eppure dietro questa facciata giocosa si nasconde qualcosa che nel mondo della generative AI non è affatto banale. Nano banana non è l’ennesimo clone di Stable Diffusion ricompilato per la gloria di qualche forum di sviluppatori. È un modello text-to-image con ambizioni serie, che vuole spingersi oltre i limiti della generazione grafica tradizionale. Ed è qui che inizia la parte interessante, perché la differenza non sta solo nella velocità o nella qualità, ma nella promessa di risolvere alcuni problemi strutturali che hanno reso frustrante l’uso quotidiano di altri sistemi.
Chi pensava che l’entanglement fosse una condanna irreversibile, un gioco di dadi cosmici senza possibilità di replay, dovrà aggiornare i propri dogmi. Einstein lo liquidava con un elegante disprezzo come “spooky action at a distance”, i manuali universitari lo spiegano con la rassegnazione di chi sa che non lo capirà mai fino in fondo, eppure adesso qualcuno ha trovato il modo di ribaltare il tavolo. Non basta osservare due particelle intrecciate danzare fuori da ogni logica classica, ora la fisica suggerisce che quell’intreccio può essere non solo consumato ma anche ricaricato, come se fosse un banale account cloud. E qui entra in scena il concetto più ironicamente capitalista mai introdotto nel mondo quantistico: la quantum battery. Non un accumulatore di elettroni, ma un deposito di correlazioni invisibili, di pura informazione quantistica che, a quanto pare, può essere immagazzinata, richiamata e perfino invertita.
Il “Agentic Cookbook for Generative AI Agent usage” di Microsoft è una guida pratica e dettagliata progettata per sviluppatori, architetti e innovatori tecnologici che desiderano implementare sistemi di agenti intelligenti nei loro flussi di lavoro. Questo repository GitHub, disponibile gratuitamente, offre oltre 110 pagine di contenuti, suddivisi in moduli teorici e progetti pratici, per esplorare e costruire applicazioni basate su agenti AI. (lo trvate su GitHub)
La bolla dell’intelligenza artificiale non è solo un titolo da clickbait o un’allusione ai numeri che impazzano nei grafici delle startup. Sam Altman, CEO di OpenAI, l’ha definita chiaramente: “Sì, l’AI è in una bolla, ma la sua importanza rimane reale”. Il concetto è così affilato da tagliare il velo dell’ipocrisia finanziaria senza pietà. Non si tratta di una semplice speculazione tecnologica: stiamo osservando un fenomeno dove entusiasmo, paura e ambizione si intrecciano come in un cocktail Molotov. La differenza rispetto alle dot-com è sottile, ma fondamentale: l’AI non è solo software, è accelerazione cognitiva distribuita a livello globale.
Nuove ricerche saranno presto lanciate sulla Stazione Spaziale Internazionale, inclusi studi che esamineranno gli effetti della microgravità sulle cellule che formano le ossa. Scopri cosa sta per partire per lo spazio

Nel mondo scintillante delle AI, la percezione di controllo è spesso ingannevole. Tutti parlano di agenti intelligenti capaci di rivoluzionare il customer service, automatizzare processi aziendali e persino anticipare le esigenze dei clienti. Eppure, dietro questo velo di efficienza, si nascondono falle sorprendenti.
Prendi ad esempio uno degli agenti più pubblicizzati da Microsoft in Copilot Studio, presentato come il modello di eccellenza per l’automazione dei servizi clienti. Una volta replicato e testato al limite, ci siamo resi conto che anche il più brillante dei cervelli artificiali può cadere vittima di prompt injection, quella forma subdola di manipolazione che sfrutta la naturalezza del linguaggio per fargli compiere azioni indesiderate.
Quantum computing è come un ospite non invitato che arriva a una festa di intelligenza artificiale vestito in modo totalmente diverso, e a un certo punto tutti si rendono conto che ha capito meglio il tema della serata. Per anni gli scienziati hanno cercato di travestirlo con i vecchi abiti della machine learning classica, forzando le architetture dei neurali convenzionali dentro circuiti quantistici. Il risultato? Barren plateaus, deserti matematici dove gli algoritmi si arenavano senza speranza. È un po’ come provare a far correre una Ferrari su sabbia: il motore ruggisce, ma non ci si muove di un millimetro.

Una curiosa fusione di hype e dati reali: i modelli AI stanno scalando la curva dell’intelligenza artificiale come rockstar in tournée mondiale. Più che un meme, c’è un fondamento concreto in report indipendenti. TrackingAI.org ha svolto test approfonditi – compreso il celebre test di Mensa Norvegia rilevando punteggi IQ che superano di gran lunga la media umana di 100, spesso oscillando tra 120 e addirittura 136 .
Immaginiamoci la scena: una bambina stringe al petto un pupazzo di peluche dagli occhi grandi e rassicuranti. Dentro non c’è soltanto ovatta sintetica, ma un microprocessore connesso in rete, un’intelligenza artificiale che ascolta, risponde, imita, scherza. Per i produttori è la soluzione definitiva a due problemi che tormentano i genitori contemporanei: l’ansia da esposizione agli schermi e la necessità di offrire ai figli un compagno interattivo che non si limiti a emettere un jingle pre-registrato. Sembra la versione 3.0 del vecchio Teddy Ruxpin anni Ottanta, solo con la differenza che adesso il pupazzo non racconta semplicemente una fiaba, ma dialoga, improvvisa, adatta il suo tono alle reazioni del bambino.




All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.