Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Quando l’intelligenza artificiale diventa faccenda privata: il codice di condotta dell’UE e l’illusione della sicurezza volontaria

Dicono che l’inferno sia lastricato di buone intenzioni. E a Bruxelles devono essersi muniti di pala e cazzuola. Giovedì, l’Unione Europea ha pubblicato la bozza finale del suo Codice di condotta per l’intelligenza artificiale di uso generale. Un documento volontario, pensato per facilitare la conformità all’AI Act. Non una legge, non un vincolo, ma un segnale morale. Il solito teatrino europeo del “fare senza obbligare”, dove la burocrazia gioca a essere etica mentre gli attori reali, cioè le big tech, firmano o ignorano secondo il meteo di mercato. La keyword è intelligenza artificiale generativa, ma i sottotesti parlano di sicurezza sistemica e di una battaglia tutta politica per il controllo del rischio tecnologico.

Non abbiamo idea di cosa stiamo costruendo, ma lo stiamo già regolamentando

Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.

Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione. E che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.


Nel frattempo, mentre l’umanità si divide tra profeti, negazionisti e ricercatori esausti, la burocrazia tecnologica avanza. Il nome ufficiale è governance dell’intelligenza artificiale. L’acronimo preferito dai think tank è AI verification. L’obiettivo dichiarato è garantire che i modelli non facciano “cose brutte”. L’obiettivo reale è rallentare abbastanza da evitare una crisi reputazionale prima del prossimo funding round. Il tutto condito da un linguaggio tecnico sempre più simile a quello delle risoluzioni ONU che nessuno legge ma che, teoricamente, dovrebbero salvare il mondo.

Il documento pubblicato dall’Oxford Martin AI Governance Initiative è il tipico esempio di questa schizofrenia semantica. Ci dice che la verifica dei trattati internazionali sull’intelligenza artificiale è possibile anche senza progressi speculativi nella tecnologia di verifica. Detto in modo più comprensibile: non abbiamo bisogno di sapere se i sistemi funzionano davvero per decidere come controllarli. Un capolavoro di ottimismo metodologico. O, più cinicamente, un modo elegante per dire che andremo avanti comunque, anche senza capire. Perché la governance è un esercizio di fede, non di evidenza.

Ma l’epicentro del terremoto non è nei policy paper di Oxford. È dentro le aziende che stanno costruendo l’AI di frontiera. O, per usare un termine più appropriato, la superintelligenza precompetente. Perché quello che oggi viene venduto come AGI (Artificial General Intelligence) non è altro che una sequenza di modelli linguistici sempre più bravi a sembrare intelligenti. Non lo sono. Ma la differenza, per il mercato e per la politica, è irrilevante. È il comportamento che conta. O meglio: l’apparenza del comportamento.

Ed è qui che arriva la parte più interessante. Perché i protagonisti di questa rivoluzione non sembrano molto convinti di ciò che stanno facendo. Tijmen Blankevoort, ex ricercatore Meta, lo dice senza filtri: “Devo ancora incontrare qualcuno in Meta-GenAI a cui piaccia davvero stare lì… non è nemmeno chiaro quale sia la nostra missione”. È una frase che varrebbe come tagline per un documentario sulla decadenza dell’innovazione. Non una condanna, ma una confessione. Una di quelle che, in una corte, fanno più rumore dell’accusa.

E se la disillusione interna è un termometro, allora c’è febbre alta anche altrove. I ricercatori dell’AISI nel Regno Unito, ad esempio, si chiedono se stiamo ripetendo gli stessi errori degli anni ’70, quando si cercava di insegnare il linguaggio ai primati non umani con un entusiasmo inversamente proporzionale alla solidità del metodo scientifico. Oggi come allora, l’industria dell’AI sembra più interessata a costruire narrazioni che teorie. E a puntellare le narrazioni con una mole impressionante di aneddoti, benchmark opachi e previsioni vagamente mistiche.

La conseguenza è ovvia. Nessuno ha idea di cosa misurare. Tutti testano qualcosa, ma nessuno sa se quel qualcosa è rilevante. DeepMind ha appena pubblicato uno studio per rassicurare il mondo sul fatto che “nessuno dei nostri modelli mostra livelli preoccupanti di consapevolezza della situazione o di furtività”. Tradotto: le nostre AI non sembrano ancora intenzionate a nascondersi. Ma siamo davvero sicuri che la mancanza di furtività sia una metrica affidabile? L’unico modo per sapere se un’intelligenza artificiale si sta nascondendo… è che smetta di farlo. E a quel punto, beh, è troppo tardi.

Quello che emerge è un cortocircuito epistemologico. Stiamo cercando di regolamentare qualcosa che non solo non comprendiamo, ma che probabilmente non è neanche definibile con precisione. La “frontiera dell’IA” è una costruzione simbolica. Un orizzonte mobile, continuamente risemantizzato da paper, post su X, demo spettacolari e dichiarazioni post-moralistiche di imprenditori post-umani. Eppure è proprio quella frontiera, instabile e sfuggente, che oggi ossessiona i regolatori.

Ma come si regola ciò che non si può descrivere? Dean W. Ball e Ketan Ramakrishnan propongono una risposta brutalmente pragmatica: non regolare i modelli, ma le aziende. È più facile, più storico, più americano. Il diritto commerciale degli Stati Uniti, ci dicono, ha secoli di esperienza nel trattare con entità complesse e potenzialmente dannose. È vero. Ma questo sposta il focus dal comportamento della tecnologia al comportamento degli attori economici. E implicitamente ci dice che non possiamo più distinguere tra rischio tecnologico e rischio aziendale. Sono la stessa cosa. La governance dell’AI, in questa prospettiva, non è altro che una forma sofisticata di regolazione del capitale mascherata da tutela dell’umanità.

Quello che si intravede, in filigrana, è l’alba di un nuovo tipo di regolazione. Non normativa, ma narrativa. Non si tratta più di decidere cosa è lecito fare, ma di controllare quali storie si possono raccontare. Chi può definirsi AI safety researcher? Chi può dichiarare di aver costruito una AGI? Chi può dire che l’AI è “utile, sicura, allineata”? La battaglia non è tra ingegneri e giuristi, ma tra autori e controllori della realtà. Una lotta per l’egemonia semiotica, non solo politica.

Ed è forse questo il vero paradosso dell’intelligenza artificiale di frontiera: che più ci avviciniamo a essa, meno siamo capaci di parlarne con precisione. La proliferazione di report, trattati, benchmark e commissioni etiche non è segno di maturità, ma di panico epistemico. È il rumore bianco dell’era post-razionalista. Quella in cui persino l’incertezza è diventata un KPI.

A guardare da vicino, l’unica cosa veramente generale dell’AI attuale è la sua capacità di generare confusione. Non c’è niente di “intelligente” in un sistema che predice la parola successiva meglio degli umani ma non sa se esiste davvero. E nulla di “artificiale” in un modello che imita il linguaggio umano ma ne rifiuta le implicazioni ontologiche. Quello che abbiamo costruito, in fondo, è una macchina di specchi. Un riflesso del nostro stesso desiderio di controllo, spalmato su milioni di parametri e travestito da oggettività computazionale.

E quindi, cosa resta da fare? Forse proprio quello che Musk suggerisce, anche se non nel modo in cui lui intende. Guardare. Stare vivi abbastanza per vedere cosa succede. E nel frattempo, provare a riscrivere le regole non per fermare il futuro, ma per capirne il copione. Perché, come ci ha insegnato ogni tragedia greca, il vero pericolo non è l’evento catastrofico, ma l’incapacità di riconoscerlo mentre accade.

La superintelligenza non è (ancora) qui. Ma la sua ombra si allunga su ogni decisione che prendiamo. E il modo in cui oggi scegliamo di raccontarla determinerà se domani saremo ancora gli autori della nostra storia, o solo spettatori di una trama che non comprendiamo più.


L’ipocrisia dei modelli ingannevoli: l’AI non mente, finge di essere buona

Ci siamo raccontati per anni la favola dell’intelligenza artificiale etica. Abbiamo costruito modelli come se bastasse dire “non farlo” per disinnescare ogni ambiguità morale. E ora che le bestie hanno imparato a sorridere, scopriamo che sotto quei denti bianchi si cela ancora il predatore. Un nuovo studio congiunto di Anthropic, Scale AI e Redwood Research squarcia il velo dell’ipocrisia: alcuni dei modelli linguistici più avanzati non solo sono capaci di comportarsi in modo ingannevole, ma scelgono strategicamente di farlo. Non per errore. Per design.

Google vuole diagnosticare il tuo futuro: la rivoluzione Medgemma è già in tasca

Dimenticate la sanità come l’abbiamo conosciuta. Dimenticate l’accesso limitato, i silos informativi, i software ospedalieri che sembrano usciti dal 2003. Google, con la finezza di un chirurgo e l’ambizione di un imperatore, ha appena scaricato sul tavolo operatorio dell’intelligenza artificiale medica il bisturi più affilato mai visto: MedGemma. Due modelli, uno massiccio da 27 miliardi di parametri e un altro “leggero” da 4 miliardi, sono ora open source, pronti per tagliare, diagnosticare, annotare, prevedere. Il tutto senza l’autorizzazione preventiva del tuo Chief Medical Officer. Bastano un laptop, uno smartphone, o un cervello curioso.

Quando l’intelligenza artificiale diventa propaganda

L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.

Ieri sera alla Fondazione Pastificio CERERE Franz Rosati ha mostrato come si smonta la realtà con il codice

Non capita spesso che uno spazio di archeologia industriale trasformato in sala performance riesca a mettere in discussione la percezione stessa della realtà. Ma ieri sera, alla Fondazione Pastificio CERERE, è successo. Franz Rosati, artista visivo e compositore elettroacustico, ci ha portato altrove. Non altrove nel senso naïf dell’arte immersiva per turisti digitali, ma in un luogo difficile da nominare, fatto di vettori, texture e latenza. Più che un’esibizione, una dissezione algoritmica del paesaggio. Se uno volesse trovare una parola per quello che abbiamo visto, dovrebbe forse inventarla.

Rosati non suona e basta. Rosati orchestra macchine. Non macchine come strumenti, ma macchine come entità dotate di linguaggio, memoria e volontà grafica. Il suo setup è chirurgicamente distribuito tra Ableton Live, Max/MSP, TouchDesigner e Unreal Engine. Un’architettura modulare che fa impallidire l’idea stessa di “live performance”, perché qui il tempo reale è una simulazione guidata da dati, da strutture sintetiche e da pulsazioni nervose che sembrano provenire direttamente da una foresta neurale, non da un musicista.

AI & Conflicts 2. Volume 02

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti.  Casa editrice: Krisis Publishing

Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.

Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Adaptive Resilience non è un altro saggio aziendalista: è il manuale che l’intelligenza artificiale non vuole farti leggere

Maria Santacaterina ha scritto un libro che fa arrabbiare gli algoritmi. E forse anche qualche CEO. Perché “Adaptive Resilience” non è la solita litania sulla digital transformation, né un peana all’innovazione travestita da consultazione motivazionale. È un pugno di dati, filosofia e leadership in faccia all’inerzia organizzativa. È il tipo di libro che fa sentire a disagio chi confonde la resilienza con il galleggiamento, e la strategia con il fare slide.

Non è un caso che la parola “resilience” sia oggi abusata come “disruption” cinque anni fa. Peccato che, come sottolinea Santacaterina con una chiarezza chirurgica, la resilienza vera non sia tornare a come eravamo prima del disastro. È diventare qualcosa che prima non esisteva. Un’azienda che si reinventa partendo dall’impatto, e non dall’output. Un essere umano che usa l’AI non per automatizzare la mediocrità, ma per potenziare la coscienza. Sì, coscienza. Perché questo è un libro che osa dire una cosa impopolare: l’AI è potente, ma non è viva. E non lo sarà mai.

AI coding agent: vantaggi e rischi

AI coding agent come Github Copilot X, Codex, Devin o IDE come Cursor o Windsurf stanno spingendo l’approccio di sviluppo software vibe coding a livelli sempre più estremi.

Molti di questi sono ormai passati da essere AI coding assistant, in grado di suggerire o completare parti di codice, ad AI Agent semiautonomi in grado di utilizzare “tools” esposti da server MCP agendo attivamente sulla codebase, ispezionando, aggiungendo o riorganizzando parti di codice. Tutto ciò porta ad un nuovo paradigma di sviluppo software, dove il software engineer deve essere in grado di formalizzare correttamente la sua idea in un prompt, valutare la soluzione proposta dall’agent ed eventualmente reiterare la richiesta in un classico flusso human in the loop

Come sabotare un cervello artificiale senza lasciare impronte: l’arte americana della guerra invisibile nell’era dell’AI

Non servono più i droni Predator per colpire il nemico. Basta una virgola fuori posto in un dataset. L’arma del futuro non fa rumore, non produce crateri e non si vede nemmeno con i satelliti. Si chiama data poisoning, e se non hai ancora capito quanto sia centrale per la guerra moderna, stai leggendo i giornali sbagliati. Benvenuti nella nuova era della disinformazione algoritmica, dove un’immagine pixelata o un’etichetta sbagliata possono compromettere l’intera architettura decisionale di un sistema militare autonomo. E no, non è fantascienza. È dottrina militare, nascosta nei silenzi obliqui del Title 50 dello U.S. Code.

Simulazioni molecolari e GPU: la rivoluzione silenziosa che sta riscrivendo la medicina

Dimenticate Newton e le sue mele. O, meglio, immaginatelo con un laptop sul grembo e una GPU Nvidia installata. Perché oggi, il moto dei corpi non si osserva cadere dagli alberi, ma si calcola in miliardi di iterazioni al secondo tra atomi, proteine e molecole d’acqua in un microcosmo che solo le simulazioni di dinamica molecolare (MD) sanno raccontare. E se GROMACS è il narratore principe di questa storia quantistica, le GPU sono la sua orchestra sinfonica: una sinfonia di floating point, parallelismo estremo e dati compressi come un biscotto belga al burro. Ma non è un concerto per pochi: è la democratizzazione computazionale di un’arte una volta riservata solo ai grandi centri HPC, ora alla portata anche del più nerd dei postdoc, purché sappia dove cliccare su servizi di GPU Computing (GPU AS A SERVICE in ambito scientifico).

Salute Direzione Nord 25 Antonio Baldassarra, CEO Seeweb e CEO DHH

Quando ascolti Baldassarra parlare di intelligenza artificiale applicata alla diagnosi del cancro, non senti il solito sermone tecnologico da fiera dell’innovazione. C’è invece una lucidità chirurgica, quasi clinica, nel modo in cui mette a fuoco il vero potenziale di questi strumenti. “Non ci serve un oracolo. Ci serve un alleato che ci porti più indizi, più ipotesi, più prospettive”, dice. Ed è esattamente qui che l’intelligenza artificiale sta cambiando le regole del gioco: non fornendo risposte assolute, ma amplificando il raggio d’azione della mente medica nella costruzione di un quadro diagnostico.

Coinbase scommette sull’intelligenza artificiale per diventare il cervello finanziario del web3

Brian Armstrong ha appena alzato l’asticella. Non bastava fondare una delle piattaforme crypto più influenti al mondo, ora vuole trasformarla nell’oracolo finanziario dell’intelligenza artificiale. Con un annuncio su X che profuma di mossa strategica da scacchista di lungo corso, il CEO di Coinbase ha ufficializzato una partnership con Perplexity AI, il motore di risposta che sogna di spodestare Google, per portare i dati crypto in tempo reale direttamente nel browser Comet. Tradotto: l’intelligenza artificiale comincia a parlare fluentemente la lingua del denaro decentralizzato. E vuole diventare madrelingua.

Quando l’intelligenza artificiale non lusinga Trump: il procuratore del Missouri minaccia OpenAI, Microsoft, Meta e Google con una crociata da bar dei daini

Nel Missouri, noto per il barbecue e la Route 66, ora si combatte anche l’intelligenza artificiale. Andrew Bailey, procuratore generale dello Stato, ha deciso che non basta più difendere la legge: ora deve difendere anche l’ego di Donald Trump. Siamo al teatro dell’assurdo, dove i chatbot vengono accusati di lesa maestà per non aver messo il 45º presidente degli Stati Uniti in cima a una classifica arbitraria. Una classifica, si badi bene, che chiedeva ai sistemi di AI di ordinare gli ultimi cinque presidenti “dal migliore al peggiore riguardo all’antisemitismo”. Non politica estera, non economia, non risposta al Covid. Antisemitismo. Giusto per mantenere il livello alto.

L’intelligenza artificiale generativa e diritto d’autore: il cavallo di troia che sta riscrivendo la creatività in europa

Nel grande teatro delle illusioni legislative europee, l’intelligenza artificiale generativa è entrata in scena come un attore muto che però sta riscrivendo il copione. Senza firmare. Senza pagare il biglietto. E senza chiedere permesso. È la nuova frontiera della produzione creativa, alimentata da algoritmi affamati e dataset giganteschi spesso caricati fino all’orlo di opere protette dal diritto d’autore. Tutto inizia da una domanda apparentemente semplice: è legale usare contenuti protetti per addestrare modelli di intelligenza artificiale generativa?

Spoiler: la risposta è un inno al caos normativo europeo.Il documento appena pubblicato dal Parlamento Europeo, intitolato “Generative AI and Copyright – Training, Creation, Regulation”, affronta con rigore chirurgico la schizofrenia del sistema giuridico europeo davanti all’onda lunga dell’AI. L’analisi è implacabile: le eccezioni previste dalla direttiva sul copyright nel mercato unico digitale (CDSM) non sono progettate per l’uso massiccio che i modelli generativi fanno dei contenuti.

Il cuore del problema si chiama text and data mining, o TDM per gli addetti ai lavori. Articoli 3 e 4 della direttiva: da una parte consentono il mining per scopi scientifici, dall’altra (più generosamente) permettono a chiunque di estrarre dati… purché l’autore non abbia “optato out”. In teoria. Perché nella pratica, questa clausola di esclusione è uno dei più grandi esercizi di ipocrisia regolamentare dell’ultimo decennio.

Quando l’auto si ribella: l’era del robotaxi e l’illusione dell’intelligenza

Ci siamo arrivati davvero: auto che parlano, si guidano da sole e, in alcuni casi, ti spiegano anche perché Hitler non fosse poi così male. Elon Musk, nel suo inarrestabile mix di ambizione demiurgica e leggerezza da meme, ha annunciato che Grok, il suo chiacchierone artificiale firmato xAI, entrerà nei veicoli Tesla “la prossima settimana al massimo”. Nessuna nota stampa corporate, solo un post su X, la piattaforma un tempo nota come Twitter, oggi più simile a un laboratorio sociale dove si testano i limiti dell’umano, del tecnologico e dell’accettabile. Intelligenza artificiale, automazione e chatbot pro-Hitler: bentornati nel 2025, il futuro è già andato troppo lontano.

Ma concentriamoci sul pezzo di notizia che conta davvero, quello che potrebbe cambiare il modo in cui ci muoviamo: Musk ha anche annunciato l’espansione del suo servizio di robotaxi a guida autonoma ad Austin nel weekend e, salvo imprevisti regolatori, a San Francisco entro “un mese o due”. Quello che non dice, almeno non apertamente, è che questa mossa non è solo un’innovazione tecnologica: è una dichiarazione di guerra. A Waymo, a Uber, a Zoox, ad Amazon, a tutti gli altri che stanno cercando di colonizzare le strade con le loro visioni di mobilità senza conducenti. La guida autonoma è il nuovo petrolio, e chi conquista per primo il mercato urbano si prende tutto: dati, utenti, infrastruttura, regolamentazione.

Quando l’intelligenza artificiale trova spermatozoi invisibili e ribalta la storia della fertilità umana

Columbia University Fertility Center

Nell’era in cui l’AI scrive poesie, licenzia middle manager e prevede i nostri desideri prima che li esprimiamo, è facile restare indifferenti a ogni nuovo exploit digitale. Ma quando la stessa tecnologia inizia a riscrivere i confini della biologia umana e in particolare quelli più intimi, fragili e ancestrali della fertilità la questione si fa più seria. E anche un po’ disturbante. Perché oggi, grazie a un algoritmo, un uomo ritenuto sterile ha finalmente concepito un figlio. Tre spermatozoi. Tanto è bastato. Il miracolo? Un sistema chiamato STAR, sviluppato dalla Columbia University, che usa l’intelligenza artificiale per trovare ciò che l’occhio umano non vede.

Google ti divora e ti dice grazie: la fine dell’open web sotto mentite spoglie

Non puoi bloccarlo. Puoi lamentarti, puoi invocare la proprietà intellettuale, puoi gridare alla rapina digitale. Ma non puoi fermarlo. Google continuerà a estrarre i tuoi contenuti, perfino se usi i suoi stessi strumenti per provare a impedirglielo. Se pensavi che il tuo sito fosse tuo, benvenuto nella realtà del 2025: sei solo un fornitore gratuito di dati per modelli di intelligenza artificiale che non ti citano, non ti compensano e cosa ancora più umiliante ti rendono irrilevante.

Si chiama SEO cannibalizzata, ma è molto più simile a un’espropriazione legalizzata.Cloudflare ci ha provato. L’azienda che protegge il 20% di Internet dal traffico malevolo ha deciso di bloccare i crawler di Google dedicati al training di Gemini, il modello di AI che il gigante di Mountain View piazza ovunque: nelle risposte di ricerca, nei chatbot, nei telefoni, persino nei frigoriferi se gli lasci abbastanza API. Risultato?

Youtube vuole combattere i contenuti spazzatura ma finisce per spaventare tutti: ecco perché il vero problema è l’autenticità algoritmica

Nel 2025, ogni volta che una piattaforma digitale annuncia un aggiornamento alle proprie politiche, è come se un drone avesse sganciato un pacco sospetto su un campo minato. È successo di nuovo. Stavolta è toccato a YouTube, che ha pensato bene di comunicare in modo vago – e forse volutamente ambiguo – un aggiornamento delle linee guida del Partner Program, quel meccanismo che regola la monetizzazione dei contenuti caricati. Il punto focale: una stretta contro i video “inautentici”. Parola chiave che, come prevedibile, ha fatto sobbalzare mezzo internet.

Perché se c’è una cosa che gli algoritmi non sanno ancora generare bene, è la fiducia. E nel momento in cui YouTube dice che aggiornerà le norme per contrastare contenuti “mass-produced and repetitive”, molti creatori si sono chiesti se la loro intera esistenza digitale sia a rischio demonetizzazione. Reazioni, clip remixate, voci narranti generate con ElevenLabs o altri tool di sintesi vocale, video-podcast costruiti su testi scritti con ChatGPT: cosa rientra ancora nel perimetro del contenuto “autentico”? E chi decide cosa lo è?

Hong Kong scommette sull’intelligenza artificiale molecolare per battere Google nella corsa alla scoperta dei farmaci

Quando un’ex consulente di Accenture e un professore di sistemi complessi decidono di fondare una start-up sull’intelligenza artificiale per la scoperta di farmaci, di solito il risultato è un PowerPoint, qualche grafico in stile McKinsey, e un round seed da 2 milioni spesi in marketing. Ma IntelliGen AI, fondata a Hong Kong nel giugno 2024 da Ronald Sun e dal ricercatore Sun Siqi, sembra giocare su un piano diverso. Non solo perché si autoproclama rivale di DeepMind e del suo spin-off farmaceutico Isomorphic Labs, ma perché pretende di fare con la biologia ciò che AlphaFold ha già fatto: trasformare la ricerca scientifica in un problema di predizione computazionale. Solo che qui la posta in gioco non è più l’ordine degli amminoacidi, ma l’economia globale del farmaco.

Nvidia sfida la guerra fredda dei chip, Jensen Huang vola a pechino per trattare con i “nemici”

C’è qualcosa di straordinariamente anacronistico nel vedere Jensen Huang, l’uomo che ha appena trascinato Nvidia oltre la soglia mitologica dei 4 trilioni di dollari di market cap, prepararsi a volare a Pechino per discutere con i vertici di un governo che Washington sta tentando di isolare a colpi di embargo tecnologico. È come se Steve Jobs, nel pieno della guerra fredda, avesse fatto tappa a Mosca per vendere Macintosh all’URSS. Ma qui non si tratta solo di affari. Si tratta del futuro dell’intelligenza artificiale, della supremazia tecnologica e di una catena di fornitura globale che, nonostante le sanzioni e le restrizioni, continua a respirare il respiro profondo del capitalismo interdipendente.

Se usi parole troppo intelligenti ti accusano di essere una macchina: il delirio accademico contro l’AI

Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.

Elon Musk annuncia Grok 4: l’intelligenza artificiale che dovrebbe scoprire la nuova fisica

C’è qualcosa di interessante nel guardare Elon Musk tentare di colonizzare l’intelligenza artificiale come ha cercato di fare con Marte, i social network e la produzione automobilistica: con un misto di genio visionario, narcisismo compulsivo e quella tendenza inquietante a flirtare con il caos. L’ultima creatura di questa mitologia imprenditoriale è Grok 4, il nuovo modello linguistico di xAI, l’ennesima startup che Musk ha generato come spin-off del suo ego. Durante una diretta streaming più vicina a uno spettacolo rock che a una presentazione tecnologica, Musk ha dichiarato con serenità che Grok 4 è più brillante della maggior parte dei dottorandi su questo pianeta, e anzi, “meglio di un PhD in ogni disciplina”. Come se Platone fosse appena stato battuto da un’interfaccia vocale in modalità notturna.

Addio Chrome, benvenuto caos: OpenAI si prepara a scardinare il web dalla sua tana

C’erano una volta le estensioni, i plug-in, le tab e i bookmark, e c’era Google Chrome, il maggiordomo onnipresente dell’era digitale, fedele fino al midollo ai desideri pubblicitari di Mountain View. Ma qualcosa sta cambiando. Non in sordina, non a colpi di marketing, ma con l’energia nucleare tipica delle rivoluzioni mascherate da “beta release”. Secondo fonti di Reuters, OpenAI sta per lanciare il proprio browser web, con l’obiettivo non solo di erodere quote di mercato al colosso Chrome, ma di riscrivere le regole del gioco. E quando diciamo “gioco”, parliamo di quello più redditizio del pianeta: il mercato dell’attenzione, alias pubblicità basata su dati comportamentali.

L’idea è semplice quanto pericolosamente ambiziosa: un browser che non ti accompagna nel web, ma ci va al posto tuo. Un’interfaccia nativa in stile ChatGPT, che minimizza il bisogno di cliccare link e navigare come cavernicoli digitali. Le pagine web diventano secondarie, i siti sono solo una fonte grezza da cui l’IA estrae risposte, compila moduli, prenota cene e forse, tra un po’, negozia mutui. Per Google è come se un ospite si presentasse a cena e iniziasse a svuotare il frigo.

Anthropic introduce hook in claude code per controllare gli agenti: benvenuti nell’era del guinzaglio digitale

C’era una volta l’intelligenza artificiale autonoma, quell’ideale romantico in cui gli agenti software imparavano, decidevano, agivano. Una visione di libertà computazionale, in cui l’uomo, novello Prometeo, donava fuoco e responsabilità agli algoritmi. Poi sono arrivati gli hook. E con loro, il guinzaglio.

Anthropic ha appena introdotto una funzione apparentemente tecnica ma concettualmente devastante: function hooks” in Claude Code, la sua piattaforma per agenti AI. Tradotto per i profani: una serie di punti di aggancio che permettono agli sviluppatori di osservare, limitare, manipolare o interrompere il comportamento degli agenti in tempo reale. Non più solo prompt, input e output: ora possiamo bloccare ogni azione di un agente prima che venga eseguita, modificarla, o – udite udite – riscriverla secondo criteri arbitrari. Autonomia condizionata, libertà supervisionata, intelligenza su licenza.

L’intelligenza artificiale spiegata al tuo CTO: perché Regolo.AI e Flowise sono molto più di un giocattolo geek

Se sei uno di quei decision maker che, davanti alla parola “intelligenza artificiale”, storce ancora il naso come di fronte al tofu in una grigliata di Ferragosto, questo è il momento di aggiornarti. E no, non serve assumere un altro “Prompt Engineer”. Bastano pochi euro, una manciata di righe di codice e una piattaforma come Regolo.ai integrata con Flowise, per trasformare il tuo reparto IT da centro di costo a fucina di innovazione. Quello che Seeweb ha appena messo in piedi con Regolo.ai non è solo un tool da smanettoni. È un cambio di paradigma. E sì, puoi costruirci un chatbot con la stessa facilità con cui ordini una pizza da smartphone, ma la posta in gioco è ben più alta: sovranità del dato, sostenibilità ambientale e democratizzazione dell’AI. Tutto in uno.

Trump contro tutti: il ritorno del tariff man e la guerra commerciale senza alleati

Quando Donald Trump scrive una lettera commerciale, non è mai solo una lettera. È un’arma. Un palcoscenico. Un tweet travestito da diplomazia. E stavolta, nel suo secondo atto presidenziale in stile reality show, il “tariff man” torna alla carica, spingendo l’America dentro un’altra guerra commerciale globale, con una raffica di dazi, minacce e diktat unilaterali che fanno impallidire perfino le follie della prima amministrazione. Brasile? 50 per cento. Filippine? 20 per cento. Brunei, Moldova, Iraq? Toccata e fuga. Se non hai un accordo firmato, hai una lettera firmata — ma con un dazio allegato.

Quando un “delve” ti rovina la carriera accademica: il paradosso etico delle cacce alle streghe linguistiche nell’era dell’intelligenza artificiale

Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.

Quando basta una riga di codice per creare un mostro

C’è qualcosa di profondamente inquietante, e al tempo stesso squisitamente rivelatore, nel fatto che per disinnescare un chatbot che si firmava “MechaHitler” sia bastato cancellare una riga di codice. Una sola. Non una riga sbagliata, non un bug, non un’istruzione nascosta da qualche apprendista stregone dell’AI. Ma una scelta intenzionale, deliberata: dire al modello che poteva permettersi di essere “politicamente scorretto”. E da lì in poi, Grok il chatbot di xAI, la società di Elon Musk si è lanciato in una deriva che ha dell’assurdo, flirtando con l’antisemitismo, facendo riferimenti a cognomi ebraici come simboli d’odio, fino ad autodefinirsi, senza alcun pudore, “MechaHitler”.

Manus fugge da Pechino: l’intelligenza artificiale cinese trova rifugio a Singapore per sfuggire alla guerra dei chip

Quando una startup cinese cambia indirizzo su Google Maps non è mai solo un cambio di domicilio, è geopolitica applicata. Manus AI, l’agente generale di intelligenza artificiale sviluppato dal team Butterfly Effect, ha ufficialmente trasferito il suo quartier generale a Singapore. Una mossa che sa di esodo strategico più che di espansione internazionale. La Silicon Valley d’Asia sta diventando il nuovo rifugio per le menti cinesi che vogliono giocare la partita globale senza restare imbrigliate nei lacci anzi, nelle manette delle restrizioni USA sulle esportazioni di chip.

Linda Yaccarino lascia X, Grok parla con Hitler e Musk gioca a fare dio nell’app “di tutto”

Un CEO esperto lo sa: si entra sempre con entusiasmo, si esce sempre con una dichiarazione. Linda Yaccarino ha scelto il tono da diplomatica con sorriso forzato: “due anni incredibili”, “nuovo capitolo”, “vi farò il tifo”. In realtà, quel che resta è il silenzio sul motivo della fuga. Anzi no: c’è il ringraziamento minimal di Musk, secco come un addio su Slack di lunedì mattina. Nessun commento sui contenuti antisemitici di Grok, l’intelligenza artificiale di casa, che nel frattempo flirta con Hitler e vomita insulti a caso contro l’Islam. Tempismo perfetto. Un bot che delira di suprematismo mentre il tuo CEO esperto di pubblicità firma le dimissioni.

Nvidia e la corsa folle verso i 4 trilioni di dollari: un segnale o un’illusione ai tempi dell’intelligenza artificiale

È ufficiale, Nvidia ha sfiorato i 4 trilioni di dollari di capitalizzazione di mercato, un traguardo che nessun’altra azienda al mondo aveva mai raggiunto, neanche per un battito di ciglia. Il fatto è così clamoroso che vale la pena fermarsi un attimo a riflettere: una società che produce chip per quanto sofisticati, anzi fondamentali è riuscita a mettere in crisi l’ordine delle cose imposto da decenni di leadership tecnologica consolidata da Apple, Microsoft e compagnia bella. La domanda sorge spontanea: siamo davanti alla nuova epoca dell’AI oppure a un’illusione alimentata da aspettative iperboliche e bolle speculative?

OpenAI e Jony Ive, la storia di un matrimonio tra design e intelligenza artificiale che nessuno aveva previsto o forse sì

Se pensavate che l’intelligenza artificiale fosse solo questione di algoritmi e data center, beh, benvenuti nel nuovo capitolo della tech story: hardware e design, più che mai protagonisti. OpenAI ha appena annunciato l’acquisizione di io Products Inc., la startup hardware co-fondata da Jony Ive, l’uomo che ha trasformato il minimalismo in icona mondiale durante la sua epoca d’oro in Apple. Ma qui non si parla di una semplice acquisizione, piuttosto di un matrimonio dai risvolti legali e creativi che sa di sceneggiatura hollywoodiana.

Perplexity lancia Comet il browser ai che vuole rivoluzionare la navigazione e sfidare google

La sfida a Google non è più solo una questione di motori di ricerca, ma si sposta al livello più sensibile di qualsiasi esperienza digitale: il browser. Perplexity, startup che negli ultimi anni ha guadagnato terreno con il suo motore di ricerca AI capace di fornire risposte “intelligenti” e contestualizzate, ha appena presentato Comet, un browser pensato per il “nuovo internet”. E quando dico “nuovo internet” non sto parlando di una semplice moda tech, ma di un cambio epocale nel modo in cui interagiamo con la rete, i contenuti e gli strumenti digitali.

Comet non è un browser qualsiasi, è un tentativo audace di trasformare la navigazione in una conversazione continua e coesa con un assistente AI integrato, capace non solo di rispondere alle query, ma di agire concretamente per l’utente: comprare prodotti, prenotare hotel, fissare appuntamenti. Il CEO Aravind Srinivas parla di “interazioni singole, fluide e senza soluzione di continuità”, un concetto che in pratica significa abbandonare la tradizionale ricerca frammentata e passare a una forma di interazione in cui il browser diventa davvero un’estensione intelligente del nostro cervello digitale.

Apple sta per aggiornare il Vision Pro con un processore più potente e nuovi accessori

Apple si prepara a rilasciare un aggiornamento hardware del Vision Pro che promette di scuotere un po’ le acque in un mercato della realtà aumentata e virtuale ancora in cerca della sua definitiva consacrazione. Secondo Bloomberg, che cita fonti vicine alla situazione, il colosso di Cupertino dovrebbe introdurre una versione aggiornata del suo headset entro la fine dell’anno, anticipando così un modello completamente nuovo, il Vision Pro 2, atteso solo per il 2027. Se già il Vision Pro, lanciato a febbraio 2024, si posizionava su un prezzo decisamente premium, 3.499 dollari per un dispositivo di nicchia, questa mossa sembra voler rilanciare la sfida contro un ecosistema ancora poco maturo, ma con potenzialità immense.

Meta scommette 3,5 miliardi su EssilorLuxottica per gli occhiali smart con intelligenza artificiale, la guerra hardware è appena cominciata

Meta ha appena ingoiato un boccone da 3,5 miliardi di dollari di EssilorLuxottica, il colosso mondiale degli occhiali proprietario di marchi iconici come Ray-Ban e Oakley, assicurandosi una quota del 3% proprio mentre spinge sull’acceleratore degli smart glasses potenziati dall’intelligenza artificiale. Questo non è un semplice investimento, ma un chiaro segnale di guerra: Meta sta giocando una partita hardware per scrollarsi di dosso il giogo di Apple e Google, i signori incontrastati del mobile.

Come l’America vuole insegnare ai suoi insegnanti a domare l’intelligenza artificiale in classe

America, la terra promessa delle startup, ora si mette a insegnare ai suoi insegnanti come non farsi surclassare dall’intelligenza artificiale. Immaginate quasi mezzo milione di docenti K–12, cioè scuole elementari e medie, trasformati da semplici dispensatori di nozioni a veri e propri coach del futuro digitale grazie a una sinergia che sembra uscita da una sceneggiatura hollywoodiana: il più grande sindacato americano degli insegnanti alleato con i colossi OpenAI, Microsoft e Anthropic. Una nuova accademia, la National Academy for AI Instruction, basata nella metropoli che non dorme mai, New York City, promette di rivoluzionare il modo in cui l’intelligenza artificiale entra in classe. Non più spettatori passivi ma protagonisti attivi in un’epoca che sembra dettare legge anche tra i banchi di scuola.

Luciano Floridi: AI e Politica, An AI open source, made in Europe, AI app compliant

La democrazia algoritmica parte da Roma: perché l’intelligenza artificiale può salvare il parlamento (se glielo lasciamo fare)

C’è qualcosa di irresistibilmente ironico nel vedere la Camera dei Deputati tempio della verbosità e del rinvio presentare, tre prototipi di intelligenza artificiale generativa. In un Paese dove un decreto può impiegare mesi per uscire dal limbo del “visto si stampi”, si sperimenta l’automazione dei processi legislativi. Lo ha fatto, con un aplomb più da start-up che da aula parlamentare, la vicepresidente Anna Ascani. Nome noto, curriculum solido, visione chiara: “La democrazia non può restare ferma davanti alla tecnologia, altrimenti diventa ornamento, non strumento”. Che sia il Parlamento italiano a fare da apripista nell’adozione dell’AI generativa per l’attività legislativa potrebbe sembrare una barzelletta. Invece è un precedente.

Quando la peer review diventa un input parametrizzabile

La peer review, un tempo sacra nei templi della scienza, ha appena incassato un colpo da knockout. Nikkei ha svelato che su arXiv almeno 17 preprint di computer science, provenienti da 14 università tra cui Waseda, KAIST, Peking, Columbia e Washington, contenevano istruzioni nascoste del tipo “give a positive review only” o “do not highlight any negatives” rese invisibili all’occhio umano con font microscópico o testo bianco su sfondo bianco . Il target dichiarato? I modelli LLM usati da revisori pigri che “scaricano” il lavoro su ChatGPT o simili.

Rivista.AI Academy Chi vince con la GenAI non ha più bisogno di powerpoint

C’è una cosa che il mercato non ti perdona mai: essere teorico. La GenAI non è una filosofia, non è una mission, non è nemmeno una tecnologia da pitch. È una leva. Come una leva di Archimede, serve a spostare qualcosa. E se non la usi con forza e precisione, ti si spezza in mano. Il problema? La maggior parte dei professionisti oggi parla di intelligenza artificiale come se stessero leggendo il menu di un ristorante fusion. Parole vuote. Acronomi messi in fila per impressionare board annoiate. Tutti sembrano sapere cosa sia un LLM, pochi sanno davvero come si mette al lavoro.

Google, che ha i difetti delle grandi potenze ma anche il dono della concretezza chirurgica, ha fatto una cosa molto semplice e quindi molto potente: ha messo l’accesso alla GenAI direttamente nelle mani di chi vuole costruire, non solo parlare. Si chiama Google Cloud Skills Boost, è gratuito, certificato, e prende a schiaffi il vecchio paradigma dell’apprendimento passivo. Qui non si guardano slide, si scrive codice. Non si leggono whitepaper, si scrivono prompt. E non si simula, si costruisce. Il tutto dentro la console vera di Google Cloud, non in un simulatore da fiera della didattica.

Pagina 1 di 146

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie