Categoria: News Pagina 35 di 135

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Il Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence: un mosaico giuridico e morale in divenire

Book: The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

La panoramica che si può ricavare dall’indice e dalle pagine introduttive del “Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence” lascia più domande che risposte, ma proprio questa incompletezza è una buona metafora del nostro rapporto con l’intelligenza artificiale. Un terreno affascinante e instabile, dove diritto, etica e politica si mescolano come ingredienti di un cocktail che deve essere sorseggiato con attenzione ma senza illudersi di averne capito la ricetta. La parola chiave qui è governance dell’IA, un concetto che va ben oltre il semplice controllo tecnico e si addentra nel labirinto della responsabilità, della trasparenza e del potere, ovvero le vere sfide di un mondo che si sta digitalizzando più velocemente di quanto i nostri codici legali riescano a rincorrere.

Quantum Computing e la sfida strategica nell’era della rivoluzione quantistica

Un CEO o un CTO con qualche anno sulle spalle sa bene che la parola “rivoluzione” va presa con le pinze. Però, quando parliamo di tecnologie quantistiche, il discorso cambia, e di molto. Non stiamo semplicemente parlando di un upgrade hardware o di un nuovo software, ma di un salto di paradigma che rischia di stravolgere tutto ciò che oggi chiamiamo “standard” nei servizi finanziari, dalla sicurezza alle operazioni di trading, fino all’ottimizzazione del rischio. Ecco, la parola chiave qui è “quantum computing” (calcolo quantistico), accompagnata da un trio di alleati formidabili: quantum sensing, quantum security e, inevitabilmente, una crescente minaccia quantistica che fa tremare i polsi ai responsabili IT.

Per i CTO lungimiranti, la sfida non è più se abbracciare o meno il quantum, ma come tradurre questa rivoluzione in una strategia aziendale concreta. Non basta fare i pionieri per moda. Il vero vantaggio competitivo si conquista identificando gli use case che portano valore reale, senza perdersi nel marasma di hype e promesse vaghe.

Intel tra politica e semiconduttori USA: la redenzione lampo di Tan Lip-Bu

Quando il Presidente degli Stati Uniti decide di passare dal definire un CEO “altamente CONFLITTUALE” al celebrarlo come esempio di successo imprenditoriale in meno di una settimana, non è soltanto un cambio di tono. È un’operazione chirurgica di narrativa politica, un colpo di scena degno di un mercato finanziario che si nutre di volatilità emotiva. Intel si è ritrovata improvvisamente al centro di un balletto strategico in cui le accuse di conflitti d’interesse legati alla Cina si sono dissolte davanti a una stretta di mano alla Casa Bianca. Chi conosce il mondo dei semiconduttori USA sa che dietro queste conversioni improvvise raramente si nasconde un’epifania personale. Piuttosto, c’è un calcolo freddo, un allineamento di interessi che diventa immediatamente leggibile per chi sa leggere tra le righe.

Trump apre alla vendita ridotta dei chip Blackwell di Nvidia alla Cina: geopolitica, affari e il nuovo baratto tecnologico

Trump non ha mai amato le mezze misure, ma questa volta sembra averne inventata una. L’idea di permettere a Nvidia di vendere alla Cina una versione depotenziata del chip AI Blackwell suona come un cocktail di calcolo politico, fiuto per l’affare e volontà di riscrivere le regole della diplomazia tecnologica. Un compromesso al 30-50 per cento della potenza originale, come se un’auto di lusso venisse consegnata con il limitatore inserito. La motivazione ufficiale? Gestire il rischio tecnologico e la sicurezza nazionale. La realtà, come sempre, è più torbida.

Questo non è un semplice annuncio industriale. È un’operazione chirurgica dentro la supply chain globale dell’intelligenza artificiale, con Washington che improvvisamente si atteggia a broker delle performance dei chip. La Cina vuole capacità computazionale, e non da oggi. Gli Stati Uniti vogliono risorse strategiche e vantaggi commerciali. E nel mezzo c’è Jensen Huang, CEO di Nvidia, costretto a un balletto diplomatico in cui ogni passo costa miliardi e ogni sorriso può valere una licenza di esportazione. Il paradosso è che la Casa Bianca non sta bloccando del tutto l’export, ma lo sta monetizzando.

Meta apre le porte a Robby Starbuck: quando la lotta al bias diventa un’operazione politica

Meta ha appena inserito Robby Starbuck come consulente per “affrontare” il bias ideologico e politico della sua AI, ma la storia è più succosa di quanto sembri in superficie. Non è il classico annuncio corporate sulla trasparenza. Qui abbiamo un attivista conservatore che ha già messo in ginocchio programmi di Diversity, Equity e Inclusion in aziende come Tractor Supply, John Deere e Harley-Davidson, e che adesso ottiene un ruolo ufficiale nella definizione di come un colosso tecnologico calibra il cervello delle proprie macchine conversazionali. L’innesco è stato un errore di Meta AI che lo aveva collegato falsamente all’assalto del 6 gennaio e a QAnon, errore amplificato sui social da un dealer Harley. Da lì, un’azione legale, un accordo e una narrativa che si allinea perfettamente con l’ordine esecutivo di Trump per rendere l’AI “meno woke”.

La memoria per Claude

Anthropic ha appena fatto un passo strategico in quella che ormai è una guerra di logoramento tra giganti dell’IA, introducendo la sua funzione di memoria per Claude con il tono da promessa salvifica: “mai più perdere il filo del lavoro”. La demo su YouTube è studiata al millimetro per colpire l’utente professionale che teme più di ogni altra cosa di riaprire una chat e dover ricominciare da zero. Invece di una memoria onnipresente alla ChatGPT, qui c’è un approccio “on demand”: il bot non ti profila, non ti spia, semplicemente recupera quello che gli chiedi. La differenza è sottile ma cruciale, ed è già destinata a essere oggetto di interpretazioni creative in sede legale e di marketing.

Microsoft smantella GitHub: addio autonomia, benvenuti nell’era CoreAI

Microsoft fa saltare il banco e sposta GitHub dentro il suo team CoreAI, cancellando di fatto la figura del CEO di GitHub dopo l’uscita di Thomas Dohmke. Un cambio epocale, più profondo di quel che sembra, perché da azienda indipendente dentro l’impero di Redmond, GitHub diventa ora un pezzo di Microsoft tout court. Dopo quasi quattro anni da CEO, Dohmke lascia per tornare a fare quello che gli piace davvero: fondare startup. Niente di male, certo, ma il tempismo è perfetto per un reboot della governance e, soprattutto, della strategia.

Non ci sarà un nuovo CEO, né una nuova squadra a dirigere GitHub in modo separato. Il messaggio è chiaro: l’era dell’autonomia di GitHub è finita. Ora il motore pulsante sarà CoreAI, la nuova macchina da guerra di Microsoft dedicata all’intelligenza artificiale, guidata dall’ex top manager di Meta, Jay Parikh. L’obiettivo è ambizioso e un po’ spaventoso: trasformare Microsoft in una “agent factory”, un’officina di intelligenze artificiali capaci di rivoluzionare il modo in cui il software viene creato, gestito e potenziato. Il futuro è sempre meno codice scritto a mano e sempre più codice generato da macchine intelligenti. Se vi sembra fantascienza, ricordate che Bill Gates pensava a Microsoft come a un esercito di sviluppatori software; Parikh vuole ora un esercito di agenti AI.

L’intelligenza artificiale generativa come strumento di autonomia e privacy: un salto netto nel buio controllato

“Before, I Asked My Mom, Now I Ask ChatGPT”:
Visual Privacy Management with Generative AI for Blind and
Low-Vision People

L’idea che l’intelligenza artificiale generativa possa diventare un alleato insostituibile per chi vive con una disabilità visiva è una rivoluzione sottotraccia, più potente di quanto si pensi. Non si tratta semplicemente di sostituire un assistente umano con una macchina. Qui la posta in gioco è molto più alta: parliamo di autonomia, di riservatezza e di dignità, quei concetti che si sgretolano facilmente quando devi dipendere da qualcun altro anche per i dettagli più intimi. I dispositivi come ChatGPT, Be My AI e Seeing AI non solo facilitano la vita delle persone cieche o ipovedenti (BLV), ma rimodellano la relazione tra individuo e tecnologia, portandola su un piano in cui la privacy non è un lusso ma un requisito imprescindibile.

Il valore reale dei modelli AI non è quello che ti aspetti

Il ranking dei modelli di intelligenza artificiale più recenti ha fatto saltare più di qualche certezza. Non è un caso se la classifica “intelligenza per euro” riserva sorprese, e qualche delusione, per chi si aspettava che il più caro fosse il migliore in tutto. La chiave per capire questo nuovo panorama è smettere di guardare solo il “peso del cervello” (cioè il punteggio IQ) e iniziare a considerare seriamente il rapporto costo-intelligenza, una metrica che il mercato sta finalmente facendo propria. Se pensavi che GPT-5 High fosse l’ultima parola, beh, preparati a rivedere i tuoi giudizi.

Cosa mangia davvero l’intelligenza artificiale nel 2025?

Reddit come cibo per l’intelligenza artificiale: un mix letale di contesto e caos che domina il cervello dei modelli linguistici nel 2025. Statista ha analizzato 150.000 citazioni di grandi modelli linguistici come Google AI Overviews, ChatGPT e Perplexity, svelando un menu di fonti decisamente poco neutro. Reddit è al primo posto, con un incredibile 40,1%. E se questo non vi mette subito in allarme, forse è il momento di rivedere la vostra fede nell’oggettività di queste intelligenze.

Nvidia e la corsa per il cervello delle macchine Cosmos Reason

Quello che Nvidia ha messo sul tavolo a SIGGRAPH non è un semplice aggiornamento di prodotto, è un messaggio diretto al futuro della robotica e dell’intelligenza artificiale fisica. Cosmos Reason, con i suoi 7 miliardi di parametri, non è l’ennesimo modello vision-language: è la dichiarazione che il ragionamento applicato ai robot non è più un esercizio accademico ma una commodity tecnologica pronta a scalare. Nvidia non sta vendendo soltanto potenza di calcolo, sta cercando di diventare l’orchestratore del “pensiero” delle macchine, spostando l’asticella dal percepire al prevedere. La capacità di far “immaginare” a un agente incarnato la sequenza ottimale di azioni, basandosi su memoria e fisica del mondo, significa trasformare la pianificazione robotica in qualcosa di simile a una conversazione interna tra modelli.

Adobe After Effect

Ci è piaciuto tanto il lavoro di Guilherme Lepca, Smart Disenos, con quell’estetica un po’ nostalgica da tunnel book ottocentesco traslata in chiave digitale. È il classico esempio di come un’idea antica possa diventare ipnotica se rivestita di un tocco minimale ma chirurgico.

Il salto quantico nella ricerca AI: come TTD-DR rivoluziona il pensiero profondo

La storia della ricerca digitale ha sempre avuto un difetto strutturale: l’approccio “cerca una volta e riepiloga”. Un metodo che, diciamocelo, ha la stessa profondità intellettuale di una scansione veloce su Google mentre aspetti il caffè. Per anni, gli strumenti AI più avanzati hanno semplicemente copiato questa routine, magari migliorandola con qualche variante parallela o incrociando dati senza anima. Nulla di male, se si cercano risposte da manuale. Ma nel mondo reale, quello dove la ricerca vera avviene, si scrive una bozza, si capisce cosa manca, si approfondisce, si torna indietro, si riscrive e così via, in un ciclo creativo che ha richiesto fino a oggi una mente umana. Fino all’arrivo di Test-Time Diffusion Deep Researcher (TTD-DR) di Google, un vero game-changer.

Nvidia e la fiducia tradita: il caso dei chip H20 in cina e la guerra fredda tecnologica

Non capita tutti i giorni che un gigante del chip come Nvidia si ritrovi al centro di un terremoto di fiducia da parte di uno dei mercati più ambiti al mondo. La storia dell’H20, il processore di intelligenza artificiale “su misura” per la Cina, è l’ennesimo esempio di come la tecnologia oggi sia una partita geopolitica dove il sospetto domina più della logica. Nvidia, dopo aver ottenuto il via libera da Washington per esportare l’H20 in Cina pagando il 15 per cento dei ricavi allo Stato americano, si trova accusata dai media statali cinesi di aver inserito “back door” di sorveglianza. Il tutto mentre il colosso rassicura che non ci sono “kill switch” o spyware nei suoi chip, a dimostrazione che la fiducia in ambito tecnologico è ormai un bene più fragile del silicio stesso.

Il paradosso è bello e grosso. Da un lato, Nvidia accetta di versare una percentuale sostanziosa delle sue vendite alla Casa Bianca, come pegno di un accordo fragile e geopoliticamente carico. Dall’altro, Pechino risponde con una campagna di demonizzazione che mette sotto accusa proprio il chip che dovrebbe alimentare il futuro dell’AI cinese. Il commento su Yuyuan Tantian di China Central Television è impietoso: “Un chip né avanzato, né sicuro, né rispettoso dell’ambiente, è semplicemente un prodotto da rifiutare”. Ironia della sorte, la strategia di Nvidia si ritorce contro, come un moderno gioco di specchi in cui ogni mossa è monitorata da occhi governativi. Una curiosità storica emerge dal passato, quando nel 1992 si parlava già di tentativi americani di inserire back door nei chip per motivi di sicurezza nazionale. Oggi, quella paranoia diventa mainstream, soprattutto nel contesto della guerra commerciale e tecnologica Usa-Cina.

South Korea e la nuova frontiera dell’intelligenza artificiale: Upstage sfida i giganti globali

Qualcuno ha detto che l’intelligenza artificiale è una gara a tappe tra Stati Uniti e Cina? Bene, forse è ora di aggiornare quel copione un po’ datato. La Corea del Sud, con la sua startup Upstage, entra nel ring globale dell’AI con un pugno ben assestato, mettendo sul tavolo modelli linguistici di grande scala che non solo competono, ma osano sfidare direttamente i colossi consolidati. Un segnale inequivocabile che l’Asia, o almeno una parte di essa, non si accontenta più di essere spettatrice passiva, ma vuole giocare da protagonista nel futuro della tecnologia.

La nascita della spettrografia e la rivoluzione quantistica nella classificazione degli elementi: un algoritmo potrà cambiare il futuro della GENAI ?

Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI

Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.

I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.

La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.

Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.

Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.

LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.

Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.

Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.

JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.

Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.

In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.

La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.

Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.

Legge delega Data Center: l’Italia rischia di preparare la tavola e lasciare che mangino altri

La scena è questa: il Parlamento discute di una legge delega sui data center e tutti annuiscono, con l’aria di chi finalmente affronta un problema urgente. Gli amministratori locali invocano da anni una normativa autorizzazioni data center chiara e uniforme, e la politica sembra voler rispondere. Sullo sfondo, una pioggia di miliardi: 37 annunciati nel 2024, 10 attesi solo tra 2025 e 2026. Sembra un’operazione chirurgica per far crescere l’economia digitale nazionale. Ma le operazioni chirurgiche, si sa, possono finire con il paziente più in ordine esteticamente ma in mani altrui.

Fare l’intelligenza artificiale in modo diverso human-AI ensembles

L’ossessione per l’efficienza ha prodotto un’IA elegante come un grattacielo di vetro, ma altrettanto sterile. La promessa di sistemi capaci di “capire” il mondo si è trasformata in una catena di montaggio di output ben formattati, metriche ingannevolmente rassicuranti e una prevedibilità soffocante. L’intelligenza artificiale interpretativa non è un vezzo accademico: è un vaccino contro l’omologazione cognitiva che oggi minaccia di ridurre la complessità umana a un algoritmo di completamento testuale. Il paradosso è che mentre i modelli diventano più grandi e veloci, il loro universo concettuale si restringe. Ci raccontano il mondo in un’unica lingua, con un solo accento, su un’unica scala di valori. È come se il pianeta fosse stato ridotto a una cartolina in bianco e nero.

Sam Altman’s BeatBot

Il futuro è qui, e Sam Altman ce lo ha appena fatto sentire nel modo più digitale possibile: ChatGPT che genera una traccia musicale live con un sintetizzatore BeatBot, partendo da una semplice frase. “Use beatbot to make a sick beat to celebrate gpt-5.” Non è fantascienza, è un nuovo paradigma di UX, dove metti l’intento e ottieni l’interfaccia che lavora per te, senza interruzioni.

La visione che Altman mostra rappresenta proprio ciò che tutti noi, CTO e innovatori digitali, aspettiamo da anni: un’AI che traduce il linguaggio naturale in strumenti operativi, in tempo reale. Pensa a quanto potrebbe cambiare il workflow creativo, soprattutto se si sposa con intelligenza artificiale generativa e interfacce dinamiche.

GPT-5 e la sfida cinese: tra hype globale e pragmatismo locale

GPT-5 arriva sulle scene con un corredo di promesse che farebbero impallidire persino i venditori di miracoli ai mercati rionali, ma la reazione in Cina, uno dei principali laboratori globali dell’intelligenza artificiale, è stata più una smorfia di dubbio che un applauso scrosciante. Da un lato abbiamo il palco di OpenAI a San Francisco che parla di “modello più intelligente, veloce e utile di sempre”, un passo verso il sogno di mettere l’intelligenza al centro di ogni attività economica; dall’altro, accademici come Zhang Linfeng, assistente professore alla Shanghai Jiao Tong University, che liquidano GPT-5 come un prodotto solido ma privo di svolte memorabili, incapace di mettere in difficoltà le controparti cinesi.

Guerra sporca ai contenuti generati da intelligenza artificiale su Wikipedia

Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Il traffico di ChatGPT crolla appena chiudono le scuole: la realtà nascosta dietro l’uso dell’intelligenza artificiale negli studenti

Data recently released by AI platform OpenRouter,

Il fenomeno è lampante e quasi irritante nella sua prevedibilità: ChatGPT, la superstar dell’intelligenza artificiale conversazionale, vede il suo traffico sprofondare appena le scuole chiudono i battenti. Un dato fornito da OpenRouter racconta una storia che dovrebbe far riflettere chiunque pensi che l’AI stia davvero rivoluzionando la didattica. Il 27 maggio, in piena stagione di esami, è stato il giorno con il massimo utilizzo dell’anno. Poi, con l’inizio delle vacanze scolastiche a giugno, un calo netto e costante. Identico copione si ripete ogni weekend e in ogni pausa dalle lezioni: meno scuola, meno ChatGPT. Una correlazione così evidente da sfiorare la tragicommedia.

NASA l’era in cui la medicina spaziale deve dimenticare la terra

Il concetto di “medicina di prossimità” assume un significato completamente diverso quando il paziente è a 384.400 chilometri dalla farmacia più vicina e il medico di guardia è un’intelligenza artificiale. Fino ad oggi, gli astronauti sulla Stazione Spaziale Internazionale hanno potuto contare su un filo diretto con Houston, rifornimenti regolari di farmaci e strumenti, e persino un passaggio di ritorno in poche ore in caso di emergenza grave. Ma tutto questo sta per diventare un lusso del passato. Con la NASA che, insieme a partner commerciali come SpaceX di Elon Musk, punta a missioni di lunga durata verso la Luna e Marte, il paradigma della cura medica in orbita sta cambiando in modo irreversibile.

L’industria del Brain Rot: come OpenArt sta trasformando la creatività in un click

Quello che sta esplodendo in rete oggi con il fenomeno dei video “brain rot” generati dall’AI è un perfetto caso di come la tecnologia possa essere insieme irresistibile e tossica. Un’orgia visiva di squali con le sneakers e ballerine con la testa a cappuccino che divorano l’attenzione dei più giovani, lasciando in eredità un’inedita grammatica visiva che alterna nonsense e iperstimolazione cognitiva.

In mezzo a questo carnevale digitale,  OpenArt sta giocando una partita da protagonista, trasformandosi da semplice piattaforma di generazione immagini a una fabbrica istantanea di micro-storie video. Fondata nel 2022 da due ex Google, ha già conquistato 3 milioni di utenti attivi al mese, e ora con la sua nuova funzione “One-Click Story” vuole abbattere l’ultimo muro tra creatività e produzione, eliminando qualsiasi frizione tecnica.

Il lancio di GPT-5 tra chart crime e lutto digitale per GPT-4o

Il tutto sembra una lezione magistrale su come non lanciare un modello di intelligenza artificiale di punta se l’obiettivo è evitare di diventare un meme. L’episodio del grafico è quasi comico nella sua ironia: la slide che pretendeva di misurare la “propensione all’inganno” ha finito per ingannare il pubblico, non perché GPT-5 avesse mentito, ma perché qualcuno nel marketing ha commesso quello che internet ha già consacrato come “un crimine contro i grafici”.

Google Deepmind rilascia Perch 2.0: l’intelligenza artificiale che non dorme mentre ascolta la vita

Google DeepMind ha liberato nell’open source un update potentissimo: Perch 2.0, la versione dell’intelligenza artificiale specializzata nella bioacustica, addestrata su un dataset multi-tassonomico che va ben oltre i soli uccelli. Il modello è ora in grado di estrarre embedding di qualità superiore, offrire classificazioni “off-the-shelf” per migliaia di specie vocali e stupire con risultati che dominano i benchmark BirdSET e BEANS. Il colpo da maestro? Perch 2.0 supera i modelli marini specializzati nei tasks di transfer learning, pur volando senza quasi dati marini.


Non serve tradurre il mondo in silenzio quando puoi dargli un listener che incastra ogni rumore con precisione chirurgica. La faccia feroce dell’innovazione è che Perch 2.0 usa self-distillation, prototype-learning e un nuovo criterio di source-prediction, reinventando la classification supervisionata come arma fine-tuned e feroce.

Succede che foresti intere, oceani sconosciuti, si trasformano in dataset da interpretare meglio di chi studia i dati. Se vuoi contare cuccioli rari tra i canti degli uccelli o intercettare richiami impossibili, Perch 2.0 fa girare il mondo sonoro in un “embed-and-recognize” senza cerimoni. E ricordi quel plugin di open source che menzionavi, con vector search + active learning? Esiste ed è Hoplite: un sistema agile che saturi embedding, ricerca per somiglianze, etichetta e reclasma classifier nuovi in meno di un’ora (GitHub).

E se pensi che basti, aspetta. Il fratello marino SurfPerch, nato da DeepMind/Google insieme a citizen scientist che hanno ascoltato coralli per ore, già sorveglia le barriere coralline usando audio reef dove i pescatori non vedono, ma i microfoni sì.

La sinfonia delle foreste, degli oceani, persino dei bittern (q porco nome intelligente), è ora codificata in un modello open source che fa parlare la natura. Se fossi un conservazionista austriaco dormi tranquillo: abbiamo finalmente un sensor che capisce la vita quando parla.

La Cina e l’azione globale sull’intelligenza artificiale: svelare il vero gioco dietro la retorica

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

Intelligenza artificiale in agricoltura: perché l’India sta riscrivendo il futuro globale del food

Gli agronomi ancora parlano di rotazione delle colture come se fosse l’apice dell’innovazione. Peccato che dall’altra parte del mondo, in India, un contadino con uno smartphone e un assistente vocale basato su intelligenza artificiale stia già facendo previsioni climatiche, analisi del suolo in tempo reale e vendendo il raccolto direttamente a un grossista di Dubai. Sì, avete letto bene. Non è un pitch da start-up a Las Vegas. È quello che sta realmente accadendo nel cuore della trasformazione digitale rurale, dove agritech in India sta diventando una lezione globale.

Il mondo ama sottovalutare l’India rurale. Lo fa da decenni. E intanto l’India, con più di 150 milioni di agricoltori, sta costruendo uno dei più ambiziosi ecosistemi di intelligenza artificiale in agricoltura. Non per moda, ma per necessità: produttività stagnante, micro-appezzamenti improduttivi, accesso limitato al credito e una fragilità climatica che in confronto il meteo europeo sembra un orologio svizzero.

LLM e scacchi: l’illusione della strategia nella mente sintetica

Quel che è accaduto nella LLM Chess Arena di Kaggle è molto più interessante del solito annuncio di upgrade da parte di OpenAI o Google. Mentre tutti si affannano a discutere di parametri, finetuning, modelli multimodali e percentuali di win-rate in benchmark arbitrari, c’è una scacchiera virtuale che sta raccontando una verità molto più concreta: i modelli linguistici non capiscono ciò che fanno. Lo mimano con stile, a volte con una sorprendente eleganza. Ma come i turisti che leggono la guida Lonely Planet ad alta voce sperando di sembrare madrelingua, il risultato è spesso un misto di goffaggine e fiducia mal riposta.

OpenAI bonus milionari e guerra fredda del talento: l’intelligenza artificiale ha un prezzo

Quando un’azienda tecnologica inizia a distribuire bonus da “alcune centinaia di migliaia a milioni di dollari” a un terzo della propria forza lavoro, il segnale non è semplicemente generosità o crescita: è panico strategico. OpenAI, il semidio creatore di ChatGPT, si sta preparando al lancio del suo prossimo modello GPT-5 e, allo stesso tempo, fronteggia quella che si può definire solo come una guerra asimmetrica del talento. Gli assegni non servono più a motivare, servono a blindare. Perché il vero capitale nell’era dell’intelligenza artificiale non è il software, è chi lo scrive.

Intel, il CEO sotto attacco: Trump, Cotton e l’ombra lunga di pechino

C’è qualcosa di profondamente teatrale, quasi da repubblica delle banane con chip di silicio, nell’ennesima farsa bipartisan della geopolitica americana che si insinua nei gangli dell’industria tecnologica. Donald Trump, nel suo eterno ritorno nietzschiano all’arena pubblica, ha chiesto le dimissioni di Lip-Bu Tan, appena nominato CEO di Intel. Il motivo? Secondo il tycoon, il neoamministratore delegato avrebbe “conflitti di interesse” così gravi da non lasciare “nessun’altra soluzione al problema”. Nessuna prova, nessun documento, solo l’eco roboante della paranoia di sicurezza nazionale che oggi funge da algoritmo emotivo della politica statunitense.

Lip-Bu Tan, per chi non vive sotto una roccia di silicio, è una delle figure più rispettate e influenti della Silicon Valley. Ex CEO di Cadence Design Systems, investitore visionario con un pedigree che affonda le radici nei fondi di venture capital più profondi e proficui dell’industria semiconduttori. Ma è anche, e qui il punto diventa politicamente tossico, un soggetto con legami professionali con aziende cinesi, in un momento in cui tutto ciò che ha l’odore di Pechino viene incenerito dallo sguardo inquisitorio del Congresso USA.

Microsoft Administering and Governing Agents

La nuova ossessione delle aziende non è costruire agenti AI è governarli

Microsoft ha appena pubblicato un documento strategico che, in qualsiasi altro contesto, sarebbe passato come una noiosa whitepaper da compliance officer. E invece no. Qui c’è una bomba a orologeria per chi sta già distribuendo agenti AI in azienda con lo stesso entusiasmo con cui un team marketing apre un nuovo canale TikTok. La chiamano “Agent Governance” e, se sei un CEO o un CTO che prende sul serio le proprie responsabilità, dovresti leggerla come fosse un avviso di audit dell’FBI recapitato via PEC.

Governo. Controllo. Supervisione. Tre parole che il mondo tech ha trattato come un’infezione da evitare a tutti i costi per due decenni. Ma ora che gli agenti AI sono abbastanza intelligenti da inviare email, accedere a database, prendere decisioni e (a quanto pare) anche prenotare voli aziendali su Expedia, improvvisamente il concetto di “autonomia” sta iniziando a sembrare un po’ meno sexy. Un po’ meno “AI co-pilot”, un po’ più “AI sindacalista con potere esecutivo”.

WoW GPT-5 My 2 cents

Il mantra che risuona nell’era post-GPT-4 è esattamente questo: basta chiedere, e l’AI non solo risponde, ma prende l’iniziativa, agisce, crea, corregge, migliora. Non è più un semplice strumento passivo, ma un collaboratore proattivo e quasi autonomo. Il testo che hai riportato rende l’idea con la forza di un acrostico costruito, un esercizio di stile e capacità di ragionamento che un modello attuale, anche avanzato, faticherebbe a replicare senza perdere fluidità e coerenza.

Non è magia. È “Just Doing Stuff.” Il salto da GPT-4o (e versioni precedenti) a GPT-5 non è solo una questione di potenza di calcolo o numero di parametri, ma di una profonda evoluzione architetturale e funzionale. GPT-5 sceglie autonomamente il modello più adatto tra una famiglia eterogenea di varianti, calibrando tempo e complessità di calcolo in base al compito. È una sorta di direttore d’orchestra digitale che decide quando e come entrare in scena ogni strumento, ottimizzando prestazioni e costi.

La grande illusione dell’intelligenza artificiale generativa in medicina: quando la fiducia diventa un rischio mortale

L’illusione più pericolosa del nostro tempo è forse questa: affidare decisioni mediche complesse a modelli di intelligenza artificiale generativa che, per quanto sofisticati, rimangono fondamentalmente dei cantastorie ben addestrati, non medici. Google ha di recente offerto un caso emblematico, quasi grottesco, con il suo Med-Gemini, un modello AI presentato come avanguardia nella diagnostica radiologica. L’errore emerso, identificare un “infarto del ganglio basilar sinistro”, un’entità anatomica inesistente, racconta molto più di un semplice refuso: rivela le fragilità strutturali e cognitive di questi sistemi. Il “basilar ganglia” è una fantomatica creazione che confonde il “ganglio basale” area cerebrale reale con l’“arteria basilare” vaso sanguigno anch’esso reale ma ben distinto. Si potrebbe liquidare la questione come un errore di battitura, eppure l’assenza di revisione del paper scientifico – a dispetto della correzione nel blog aziendale – sottolinea quanto la superficialità sia diventata il prezzo del marketing tecnologico.

In ambito clinico, però, queste leggerezze non sono semplici fastidi da ignorare. Nel migliore dei casi generano confusione, nel peggiore possono compromettere vite umane. Il problema è che queste AI non sono dotate di coscienza critica o capacità di autocorrezione. Judy Gichoya di Emory University mette a fuoco il cuore del disastro: queste intelligenze “inventano” risposte e raramente ammettono di non sapere. Quando si parla di salute, la disonestà intellettuale, seppur non voluta, diventa una bomba a orologeria. La convinzione che “bigger is better”, ossia aumentare a dismisura i dati di training o la complessità del modello, porti automaticamente a una maggiore affidabilità, è ormai una favola per investitori e appassionati di hype. La realtà è che nessuna quantità di prompt engineering o fine-tuning trasformerà un modello basato su pattern linguistici in un medico affidabile.

IA al servizio della sicurezza

Prompt Injection: la vulnerabilità senza fine nei modelli linguistici e l’illusione della sicurezza ai tempi dell’AI

Prompt Injection” una bestia che tutti fingono di aver domato ma che invece si annida come un verme nei meandri dei modelli linguistici. Quella storia che Wired si diverte a raccontare in capitoli infiniti, come se fosse la nuova saga infinita di una soap opera Silicon Valley style. Non c’è fondo a questo pozzo di vulnerabilità. Oggi tocca a ChatGPT collegato a Google Drive, a Gemini che fa il bullet point sul calendario di Google, ieri Microsoft si è fatto sbranare, domani chissà chi sarà il prossimo.

Il punto vero è che il problema non è l’endpoint, non è Google o Microsoft o OpenAI: è l’architettura stessa, il cuore pulsante chiamato Transformer. Una meraviglia della tecnica, sì, ma anche un incubo per la sicurezza. Nessuna protezione affidabile per casi d’uso generalisti è mai stata trovata, nessuna barricata impenetrabile, solo continue toppe che si sgretolano sotto il peso di nuove funzionalità e dati collegati. Se il “primo comandamento” dell’AI fosse “non fidarti di nulla”, non saremmo poi così lontani dalla verità. Qualsiasi cosa tu condivida con un chatbot, prendi per buona che prima o poi finirà a spasso nel grande bazar pubblico.

Tesla e il tramonto di Dojo: quando l’ambizione incontra la realtà del chip in-house

Tesla, il colosso di Elon Musk che da anni tenta di scuotere il mondo dell’auto con innovazioni rivoluzionarie, si trova ora a un bivio epocale nel campo dell’intelligenza artificiale. Dopo un tentativo titanico di sviluppare un supercomputer proprietario, Dojo, l’azienda ha deciso di smantellare il team dedicato, segnando un chiaro dietrofront sulla sua strategia di produzione interna di chip per la guida autonoma. Un dietrofront che è tutt’altro che un semplice aggiustamento tattico: rappresenta la collisione tra l’utopia dell’autosufficienza tecnologica e i limiti pratici del business e della competizione globale.

Data Center o palazzinari digitali? la distopia del made in italy

La parola “Make in Italy” suona bene. È catchy, accattivante, quasi innocente. Ma nel contesto della legge delega in discussione alla Camera, che vorrebbe normare (anzi no, “attrarre investimenti stranieri” mascherati da data center), si trasforma in un cavallo di Troia retorico. Antonio Baldassarra, CEO di Seeweb, in una recente intervista a Key4biz non ci gira intorno: è come essere tornati negli anni Cinquanta, quando bastava un progetto edilizio per muovere capitali, solo che oggi i protagonisti non sono i palazzinari romani, ma quelli tecnologici, assetati di suolo, energia e semplificazioni normative. Il nuovo mattone digitale si chiama “hyperscale data center”. E la politica sembra aver già consegnato le chiavi.

Come l’AI può spostare il voto: i bias nei modelli linguistici stanno riscrivendo la politica

Quando dici a un americano che il suo voto potrebbe essere manipolato da un chatbot, ride. Poi si ferma. Perché in fondo lo sa. Lo sente. E ora, finalmente, uno studio rigoroso lo conferma: i bias nei modelli linguistici sono molto più che un bug tecnico. Sono un cavallo di Troia cognitivo. Subdolo, elegante, fluente. In una parola: efficace.

Il lavoro presentato alla 63a ACL dal team di ricercatori dell’Università di Washington e Stanford non è un esercizio accademico. È una bomba a orologeria. Due esperimenti, 299 cittadini americani, due attività: formare un’opinione su temi politici e allocare fondi pubblici in stile “simulazione da sindaco”. Tutto mentre conversano con un chatbot, apparentemente neutrale, ma in realtà orientato in senso liberale, conservatore o effettivamente neutro. Il risultato? Le persone cambiano idea. Cambiano budget. E lo fanno anche quando il modello contraddice le loro stesse convinzioni politiche dichiarate. Chiamiamolo pure: effetto ChatGPT sul voto.

La nuova schiavitù digitale delle startup AI: dal 9-9-6 al 007

Quando nel mondo tech americano si parlava della cultura lavorativa cinese 9-9-6, lo si faceva con un misto di sconcerto e disprezzo velato. Lavorare dalle 9 alle 21, sei giorni su sette? Una barbarie made in Shenzhen, roba da fabbriche digitali dove il capitale umano è sacrificabile quanto un vecchio server. Ma adesso, nella Silicon Valley dopata dall’intelligenza artificiale, quel modello inizia a sembrare quasi rilassato. Il nuovo mantra? Zero-zero-sette. Non James Bond, ma zero ore, sette giorni: il ciclo completo della nuova mistica del lavoro AI, dove l’unica pausa concessa è il sonno REM tra due sprint di deployment.

La parabola più grottesca viene da Cognition, startup americana specializzata in generazione di codice. Un nome che fa pensare all’intelligenza, alla riflessione, magari all’etica. Nulla di tutto questo. Dopo l’acquisizione del rivale Windsurf, il CEO Scott Wu ha inviato un’email interna che potrebbe essere letta come una dichiarazione di guerra alla vita stessa. Ottanta ore a settimana, sei giorni in ufficio, il settimo a fare call tra colleghi. Nessuna “work-life balance”. Quella, evidentemente, è roba da boomer. “Siamo gli sfavoriti”, scrive Wu, con un tono che pare uscito da una fan fiction distopica in cui Elon Musk guida una setta. I nuovi dipendenti? Dovranno adattarsi o uscire dalla porta sul retro.

Cosa spinge questi moderni monaci digitali a rinunciare a tutto per un cluster di GPU e una valuation ipotetica? Il denaro, certo, ma non solo. La religione dell’hypergrowth ha le sue liturgie, e dormire in ufficio sembra essere diventata una di esse. Una foto su Slack alle 2 del mattino davanti a una dashboard di metrics, una cena consumata su una sedia ergonomica mentre si aggiorna un modello linguistico, sono oggi il corrispettivo delle cicatrici di guerra. Sarah Guo, investitrice in Cognition, lo dice chiaramente: “If this offends you, ngmi” ovvero “se questo ti offende, non ce la farai”. Una frase che suona come un verdetto darwiniano più che un consiglio.

Nel frattempo, startup come Mercor (assunzioni AI) e Anysphere (assistenti di codifica) non si nascondono: anche lì si lavora sette giorni su sette. Nessuna eccezione, nessuna domenica. L’obiettivo è diventare the next big thing e per farlo bisogna spezzarsi, insieme ai propri team. Masha Bucher, fondatrice del fondo Day One Ventures, ci mette il carico da novanta: “Se un founder non è in ufficio almeno un giorno nel weekend, allora sì che mi preoccuperei”. A quanto pare, anche il sabato di ricarica è una debolezza da eliminare.

La trasformazione è tanto inquietante quanto indicativa. Queste non sono startup che rincorrono la produttività. Sono culti tecnologici travestiti da aziende, dove il capitale umano è trattato come un modello di machine learning: più lo alleni, più performa, finché collassa. Il linguaggio è quello del sacrificio eroico, della resistenza estrema, dell’urgenza messianica. In fondo, “lavorare 80 ore a settimana per costruire il futuro” suona meno bene se lo chiami semplicemente sfruttamento.

Ma dietro tutto questo c’è una verità più scomoda. I fondatori e gli investitori stanno orchestrando una narrazione in cui la fatica disumana diventa un badge of honor, un segno distintivo che fa lievitare le valutazioni come una buona metrica di retention. Cognition è vicina a una nuova raccolta fondi che potrebbe raddoppiarne la valutazione a 10 miliardi. Vuoi attrarre i capitali nel 2025? Mostra quanto sei “hardcore”, quanto riesci a spingere il tuo team sull’orlo del burnout. E magari fagli anche sorridere per la foto su Forbes.

Tutto questo si inserisce in un contesto globale dove l’intelligenza artificiale sta diventando il nuovo petrolio, e la corsa all’oro impone ritmi da rivoluzione industriale 4.0. Solo che, questa volta, non ci sono le tute blu. Ci sono PhD del MIT e ex-Googler, tutti consapevoli, tutti volontari. O forse no? Perché dietro ogni CV brillante, c’è un’illusione silenziosa: quella che il prossimo modello generativo possa davvero cambiare il mondo. Che il codice che stai scrivendo a mezzanotte sia quello che farà la differenza tra anonimato e IPO.

Ma mentre l’élite tecnologica americana gioca a fare gli Shaolin della programmazione, la domanda vera è un’altra. Dove si colloca il limite? Non quello legale o medico, ma quello culturale. Quando una società decide che lavorare sette giorni su sette è il prezzo giusto da pagare per essere competitivi, non è più una questione di work ethic. È un collasso valoriale. Una discesa lenta e scintillante verso una distopia patinata in cui l’uomo è solo un bottleneck biologico da spremere finché l’AGI non sarà pronta a rimpiazzarlo.

Per ora ci restano le ironie. Tipo quella che i fondatori più hardcore predicano il 007, ma poi usano modelli AI addestrati per rendere il lavoro… più efficiente. L’ipocrisia si taglia con un prompt. “Automatizziamo tutto, ma voi continuate a lavorare il doppio”, sembra essere la sintesi perfetta. E sì, forse le teste rasate o le tende da campeggio sotto le scrivanie saranno davvero i nuovi simboli di status nella Silicon Valley AI. O magari lo sono già. Ma se lavorare 16 ore al giorno per mesi diventa l’unico modo per “farcela”, allora chi ce la fa davvero? E a quale prezzo?

Nel frattempo, i venture capitalist osservano compiaciuti, alzano le offerte e stringono le mani sudate di chi ha dormito due ore su un beanbag. L’era post-umana non è iniziata con un’intelligenza artificiale cosciente. È iniziata con una generazione di umani che ha deciso di comportarsi come macchine.

OpenAI startup fund: il capitalismo d’assalto mascherato da innovazione

Quando un fondo da 175 milioni di dollari diventa il trampolino per una galoppata a colpi di SPV fino a superare i 200 milioni, non si parla più di semplice venture capital. Si parla di ingegneria finanziaria raffinata, una danza tra investitori che non vogliono perdersi nemmeno un grammo del prossimo oro digitale. Il fatto che l’OpenAI Startup Fund, che non impiega neanche un dollaro di OpenAI ma si nutre del denaro di terzi, stia lanciando il suo sesto veicolo d’investimento per raccogliere altri 70 milioni, è la conferma che i giochi seri sono iniziati. Il tipo di giochi dove si alzano le puntate e si stringono mani solo in backchannel, mentre le LP firmate vengono scansionate dai bot, non dai legali.

Pagina 35 di 135

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie