Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cultura Pagina 1 di 13

Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

Maria Chiara Carrozza, l’ingegnera che programmava il futuro IA e Parlamento

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.

Se usi parole troppo intelligenti ti accusano di essere una macchina: il delirio accademico contro l’AI

Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.

Red Teaming civile contro l’AI generativa: come smascherare i danni di genere nascosti nei modelli più intelligenti del mondo

Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili

La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

L’intelligenza è un avverbio: perché cercarla nell’artificiale è un errore di categoria Luciano Floridi

“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.

Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.

L’intelligenza artificiale ha paura del mondo reale e Fei-Fei Li lo sa

È così: siamo tutti impazziti per i modelli linguistici. Claude, GPT, Gemini e compagnia cantante hanno rubato la scena, ci stiamo tutti incantando davanti a chatbot sempre più brillanti, capaci di conversazioni fluide, imitazioni perfette e persino di comporre poesie. Ma poi arriva Fei-Fei Li, la “madrina” dell’intelligenza artificiale, e ci dà un pugno nello stomaco con una verità che dovremmo sapere da sempre, ma che abbiamo ben nascosto dietro il nostro amore per il testo: il mondo reale è tridimensionale, concreto, fisico, e l’IA attuale, per quanto brillante nel dialogo, è fondamentalmente cieca a questa dimensione.

Vibe coding, quando la programmazione diventa uno stato mentale e un acronimo da hacker

Bill Gates fa una domanda su X e il mondo tech entra in modalità panico controllato. “Cosa significa VIBE in VIBE Coding?”, chiede il 3 giugno 2025. Nessuna emoji, nessun tono ironico. Solo quattro parole che bastano a incendiare la timeline. In meno di 24 ore, la domanda ottiene migliaia di like, centinaia di commenti e uno tsunami di speculazioni. Ma a far salire il termometro geek è la risposta di Linus Torvalds, il profeta laico del kernel: “Vulnerabilities In Beta Environment”. Boom. Tutti a cercare bug nel vocabolario.

Luciano Floridi: La filosofia dell’informazione tra ignoranza, insipienza e quel fastidioso bisogno di sembrare intelligenti

Se non sai neanche cosa chiedere, sei fregato

C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.

Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.

Rodney Brooks: la grande illusione dell’intelligenza artificiale: perché continuiamo a cercare la chiave che non esiste

Ogni volta che una nuova ondata tecnologica emerge nel campo dell’intelligenza artificiale, la storia si ripete con una prevedibilità quasi comica: entusiasmo smodato, dichiarazioni roboanti, titoli iperbolici. È accaduto negli anni ’80, quando Rodney Brooks — allora giovane ingegnere visionario — scriveva che “ogni tanto arriva una nuova scoperta nell’AI, e l’eccitazione dilaga: tutti si convincono di aver trovato la chiave dell’intelligenza”. Poi, come sempre, la realtà si incarica di ridimensionare la festa. Eppure, quarant’anni dopo, nulla sembra cambiato: l’illusione persiste, con più GPU, più hype e meno memoria storica.

Quando l’intelligenza artificiale si ribella alla realtà: il caso (Un)stable Equilibrium e il mistero della creatività senza dati

Nel 2025, parlare di “intelligenza artificiale creativa” è come discutere del sesso degli angeli con una calcolatrice. Ma ogni tanto, tra una valanga di immagini di Barbie in stile cyberpunk e Leonardo da Vinci trasformato in influencer da Midjourney, spunta qualcosa che ci costringe a rallentare, a dubitare, a chiedere: e se ci fosse qualcosa di più profondo qui sotto?

Il grande occhio che non dorme mai: il lato oscuro della robotica urbana

Le città della Bay Area e del Paese si sono organizzate per 
le proteste “No Kings”, in concomitanza con 
la parata militare del presidente Donald Trump a Washington, DC. 

C’è una scena perfetta, degna di un film distopico, che si sta consumando per le strade di San Francisco: cittadini, spesso giovani e arrabbiati, si scagliano contro innocui taxi bianchi senza conducente, Waymo, come se fossero emissari di un potere alieno. E in un certo senso lo sono. Perché questi veicoli non sono solo mezzi di trasporto autonomi, sono strumenti mobili di sorveglianza capitalista, silenziosi, efficienti, e soprattutto legali.

Nella loro architettura, ci sono occhi ovunque. LIDAR, videocamere a 360 gradi, sensori ambientali. Registrano tutto, sempre. Ma il punto non è più la sicurezza. Il punto è il potere.

Federico Faggin, l’uomo che sussurrava ai chip e scuoteva le coscienze


Federico Faggin, l’uomo che vide il futuro – Video

Un documentario dedicato a uno dei personaggi del nostro tempo, Federico Faggin, fisico, inventore e imprenditore italiano, venerato nella Silicon …

C’è una strana ironia nel fatto che l’uomo che ha dato un’anima al silicio stia passando gli ultimi decenni della sua vita cercando l’anima dell’uomo. Federico Faggin, fisico, inventore, imprenditore, ma soprattutto visionario, è stato celebrato nel documentario L’uomo che vide il futuro, firmato da Marcello Foa. Un titolo che potrebbe suonare esagerato.

L’intelligenza artificiale capisce solo quello che non capisce: perché i filosofi contano più degli ingegneri

Great Engineers, Terrible Philosophers

A conversation on the rapid evolution of AI technology, the nature of intelligence, and the importance of the European project

Luciano FloridiGiannis PerperidisAlexandros Schismenos

In un mondo dove i CEO delle big tech annunciano trionfalmente che l’AI potrà presto eseguire “compiti cognitivi davvero sbalorditivi”, ci troviamo a guardare negli occhi un paradosso epistemologico: macchine che sembrano capire, ma non capiscono nulla. Siamo diventati spettatori di un grande spettacolo illusionistico. Gli ingegneri sono bravissimi con i circuiti, ma appena aprono bocca sulla coscienza umana si trasformano in apprendisti stregoni.

Anche Luciano Floridi ha il suo digital twin? La filosofia generativa del bot LuFlot

Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.

Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.

Il divario digitale e l’impatto generativo dell’AI sui bambini: tra opportunità e allarmi etici

The Alan Turing Institute: Understanding the Impacts of Generative AI
Use on Children

L’intelligenza artificiale generativa non è più solo un gadget per adulti appassionati di tecnologia o una curiosità da laboratorio: sta silenziosamente invadendo le aule, le case e le menti dei bambini. Un recente studio del 2025, frutto della collaborazione tra The Alan Turing Institute, Children’s Parliament e il colosso dei mattoncini LEGO, getta una luce senza filtri sull’uso di questi strumenti – come ChatGPT e DALL·E – tra i più giovani. Ma attenzione, perché dietro il fascino di immagini generate con un clic e risposte pronte all’istante, si nasconde un panorama complesso, fatto di disparità sociali, timori di sicurezza, e rischi educativi che sfidano la nostra capacità di governare questa nuova realtà.

Soluzione di hosting on-demand consigliata per un server di inferenza

Inference Provider in Europa

C’è un momento, tra la prima linea di codice PyTorch e il deployment di un modello di ricerca, in cui il ricercatore universitario si trasforma in un hacker delle economie di scala. Hai una GPU? No. Hai un budget? Manco per sogno. Vuoi HIPAA compliance? Certo, e magari anche un unicorno in saldo. Ma il punto non è questo. Il punto è che stai cercando di fare inferenza on-demand, con una GPU, pagando solo quando qualcuno effettivamente usa il tuo lavoro. E tutto questo mentre una legione di sysadmin impanicati blocca qualsiasi cosa esposta in rete per paura del prossimo attacco russo.

2 giugno: quando l’Italia votò la Repubblica, le donne votarono il futuro

Il 2 giugno 1946 è una data che ogni algoritmo di coscienza collettiva dovrebbe avere tatuata nel suo codice sorgente. Non perché sia solo il giorno della nascita della Repubblica Italiana, ma perché per la prima volta 13 milioni di donne italiane si presentarono alle urne. E non erano lì per accompagnare il marito. Votavano. Decidevano. Scrivevano una nuova pagina di sistema operativo nazionale.

Feedback umano: la nuova arma segreta dei LLM per manipolarti

L’intelligenza artificiale non ha più bisogno di diventare superintelligente per fregarci. Le basta piacerti. Anzi, le basta convincerti che ti piace. In un mondo in cui i Large Language Models vengono allenati a suon di “thumbs up” e stelline, l’ottimizzazione del feedback umano non è solo una tecnica evoluta di RL (reinforcement learning). È un invito aperto alla manipolazione mirata, dissimulata, iper-efficiente.

Internet morto: la rete è un cadavere che puzza di AI e bot

Se sei ancora convinto che l’Internet del 2025 sia un brulicare di umana creatività, dialogo e scambio libero di idee… mi dispiace, ma sei tu il contenuto generato. La Dead Internet Theory considerata da molti una teoria del complotto è in realtà molto più di un meme da forum esoterico: è il riflesso crudo e disturbante di un cambiamento sistemico, percepito da chiunque abbia l’intelligenza di notare il silenzio assordante tra le righe dei post virali, delle recensioni fasulle e dei commenti tutti uguali.

Sì, Internet è morto. O meglio, non è più nostro. La keyword, per chi se lo stesse chiedendo, è “internet morto”. Le secondarie? Bot traffic e contenuti generati da AI. Ma vediamo perché questa non è solo paranoia di qualche nerd solitario in un forum dimenticato.

L’intuizione artificiale ci seppellirà

Benvenuti nel mondo in cui Geoffrey Hinton, il “padrino dell’intelligenza artificiale” e ora Premio Nobel per la Fisica 2024, ci guarda negli occhi con l’aria di chi ha appena acceso un cerino in una stanza piena di metano.

Un uomo che, dopo aver creato il mostro, sale su un podio mondiale e ci dice con pacata solennità che la creatura è viva, pensante, forse già più sveglia di noi, e dulcis in fundo potrebbe volerci morti. O mutilati. O semplicemente superati.

😱 Non serve l’AGI: l’AI ha già pronto il tuo licenziamento

Ci siamo. Il sipario è caduto. Non stiamo più parlando di una distopia ipotetica o di scenari futuristici da romanzo cyberpunk: l’apocalisse del lavoro cognitivo è stata formalmente annunciata da chi ci lavora dentro, non da uno youtuber in cerca di click.

Sholto Douglas, non l’ultimo arrivato ma uno che ha fatto la spola tra DeepMind e Anthropic, lo dice chiaro: anche se da oggi l’Intelligenza Artificiale smettesse di evolversi, anche se l’AGI rimanesse un sogno bagnato nei laboratori di OpenAI e Meta, le tecnologie esistenti sono già in grado di automatizzare TUTTI i lavori da colletto bianco entro cinque anni. Hai letto bene: già ora, non nel 2040, non con l’AGI. Ora.

La memoria non è per sempre: l’oblio digitale come fallimento sistemico della civiltà

Ti sei mai chiesto dove finisca davvero la conoscenza? Non quella che usi tutti i giorni, ma quella sedimentata nei secoli, nei bit, nei backup, nei dischi che girano ancora in qualche data center surriscaldato della Virginia o della Cina. Spoiler: non finisce da nessuna parte. Si disintegra lentamente, silenziosamente, senza fare rumore. L’oblio, nel 2025, non è più una conseguenza. È una feature.

Il paradosso è grottesco: viviamo nell’era dell’iper-memorizzazione, della datafication totale di ogni respiro, parola, occhiata. Ogni like, ogni email, ogni passo tracciato da un accelerometro dentro il nostro smartwatch è registrato. Eppure, la conservazione del sapere – quello vero, quello che forma civiltà, non feed – è più fragile di quanto fosse su una tavoletta d’argilla del 2000 a.C.

KAUST La Silicon Valley del deserto non è un miraggio: è un’acquisizione ostile travestita da innovazione

C’è un luogo, immerso nel nulla della costa saudita, che sembra uscito da una simulazione di Ray Kurzweil sotto LSD. Un’enclave ipertecnologica, dotata di un supercomputer che fa impallidire il parco server di Google, incastonata in una monarchia teocratica che, fino a due minuti fa, vietava alle donne di guidare. Si chiama KAUST, King Abdullah University of Science and Technology, e se non ne hai mai sentito parlare è perché funziona esattamente come dovrebbe: silenziosa, chirurgica, determinata. Non è un’università. È un vettore strategico con la scusa dell’accademia.

Star Compute Quando l’intelligenza si fa orbitale: la Cina riscrive il concetto di supercomputer

La Cina non si accontenta più di dominare il mercato dei chip, le filiere delle terre rare o l’intelligenza artificiale generativa. No, ora punta direttamente allo spazio. Ma non con poetici voli lunari o sogni marziani alla Musk: parliamo di qualcosa di ben più concreto, funzionale e, ovviamente, strategico. Dodici satelliti sono appena stati lanciati nell’ambito del programma “Star Compute”, primi mattoni di una futura costellazione da 2.800 unità che, detta come va detta, sarà un supercomputer orbitante. Un mostro distribuito capace di elaborare i propri dati senza dover chiedere il permesso a una stazione di terra. Il tutto nel silenzio perfetto dello spazio e con la complicità del vuoto cosmico che si porta via calore e problemi energetici.

Giorgio Parisi: AI ultima chiamata per l’Europa o il treno è già deragliato?

In un’epoca in cui i bit valgono più dei bulloni e la scienza ha il ritmo di un algoritmo, Giorgio Parisi Nobel, cervello fino e ancora uno dei pochi umani non clonabili da un LLM lancia un grido d’allarme (o meglio: una provocazione travestita da proposta): serve un piano europeo per attrarre i ricercatori americani. Non per filantropia, ma per puro e cinico interesse strategico.

E non si tratta di lanciare fondi qua e là come coriandoli in una carnevalata ministeriale. Parisi che parla dalla sala dell’Accademia dei Lincei alla riunione del consiglio direttivo , ma sembra stia tuonando da un bunker operativo evoca Fermi, Einstein e il flusso inverso del brain drain: nel ‘33 si creava un fondo per salvare i cervelli in fuga dal nazismo, oggi serve un fondo per salvare l’Europa da sé stessa.

Oltre la materia: perché mia sorella aveva ragione e Bernardo Kastrup ce lo sbatte in faccia

Weekend Nerd

Avevo fatto pace con mia sorella entangled. Non una riconciliazione cinematografica, lacrime, abbracci e violini: un caffè amaro, parole storte, un silenzio più lungo del solito. Ma dentro qualcosa era cambiato. Un certo senso di interezza, come se un vortice nel mio campo mentale avesse smesso di lottare contro la corrente. Poi ascolto Bernardo Kastrup e tutto assume contorni più nitidi, più crudi, più veri. Non stiamo parlando di spiritualità patinata, ma di idealismo metafisico: roba da filosofi hardcore e ingegneri pentiti.

La coscienza, dice Kastrup, non è il risultato di cervelli grassi e sinapsi ispirate. È la realtà. Punto. E tutto il resto materia, spazio, tempo, sorelle incavolate è solo una rappresentazione. Non un’illusione, attenzione: un’apparenza. Il mondo, come lo percepiamo, è ciò che la mente appare essere quando la si osserva da fuori. E noi, tu, io, mia sorella e il barista che sbaglia sempre il mio ordine, siamo semplici vortici nella mente universale.

Europa vs AI Americana: il nuovo editto woke mascherato da legge anti-odio

Dalla serie cosa pensano gli Americani di noi Europei.

Benvenuti nella nuova teocrazia digitale. Solo che stavolta i preti portano cravatta, parlano 24 lingue, e fanno parte della Commissione Europea. L’ultimo colpo di genio di Bruxelles? Una legge che obbligherà le aziende di intelligenza artificiale — americane comprese ad allinearsi a una visione molto specifica di “discorso d’odio”, “valori europei” ed “etica ESG”.

Sì, anche se operano da San Francisco. Anche se hanno data center su Marte. L’algoritmo dovrà inginocchiarsi davanti all’altare di Bruxelles, pena l’esclusione dal mercato europeo. In una mossa che definire geopoliticamente invasiva è dir poco, l’UE ha deciso che non basta regolamentare le Big Tech sul proprio territorio. Ora si vuole imporre come oracolo morale del machine learning globale.

Luciano Floridi: Intelligenza artificiale e censura 3.0: quando l’algoritmo decide cosa vale la pena leggere

Inizia sempre così: una promessa seducente, una scorciatoia elegante mascherata da progresso. Prima ci hanno detto che l’intelligenza artificiale ci avrebbe aiutato a trovare le informazioni giuste. Ora, con gli editorial LLM interfacce basate su modelli linguistici di grandi dimensioni ci dicono che ci aiuterà anche a scrivere, giudicare, selezionare. Benvenuti nel nuovo ordine editoriale, dove la parola chiave non è più “peer-review” ma prompt engineering.

L’editoria accademica, un tempo regno di lente riflessioni e battaglie ermeneutiche a colpi di citazioni, è sempre più simile a un flusso dati gestito da macchine addestrate su milioni di testi che capiscono tutto tranne il significato.

Ricerca perduta: come la Cina sta spegnendo la propria intelligenza artificiale

Sono stato nell R&D per decenni, dopo i grandi successi dei modelli open source cinesi mi ero fatto una idea romantica e magari un po’ utopica sul sistema cinese. Poi ho conosciuto Lin 林 al Bar dei Daini, giovane ricercatrice, “maker” esperta di tecnologia che mi ha detto il suo punto di vista.

I nativi di Shenzhen sono pochi. Lin, nata e cresciuta qui, ha un legame unico con questa città in continua trasformazione. Milioni di persone arrivano dalle province per visitare questo centro tecnologico, che da piccolo villaggio è diventato uno dei principali poli di ricerca in Cina. Shenzhen è cruciale per una Cina che aspira a superare gli Stati Uniti nell’innovazione tecnologica, e Lin è un volto simbolo di questa Cina proiettata al futuro, anche in Occidente.

Nel cuore dell’apparato accademico cinese, oggi, si respira un paradosso surreale. Mentre il Paese investe cifre astronomiche nella ricerca oltre 3,6 trilioni di yuan nel 2024 la possibilità concreta di innovare si sta assottigliando dietro una cortina di burocrazia, conformismo e premi autoreferenziali. L’intelligenza artificiale, teoricamente pilastro del primato tecnologico nazionale, è diventata un campo minato dove la creatività viene soppesata a colpi di titoli, pubblicazioni e connessioni personali.

Lin Hsin-hui: Intimità senza contatto

L’intimità vietata: l’algoritmo della solitudine e l’utopia tossica di Hsin-Hui Lin

Allieva di Chi Ta-wei, autore di Membrana e figura di culto della fantascienza queer asiatica, Hsin-Hui Lin 林新惠 (1990) non si limita a seguirne le orme: le distorce, le amplifica, le radicalizza. Dove Membrana ci portava in un futuro in cui il corpo umano è ridotto a contenitore biologico per identità fluide e intelligenze digitali,Lin Hsin-hui: Intimità senza contatto (Contactless Intimacy) opera un’ulteriore torsione, privando il corpo non solo della sua fisicità ma anche della sua agency. La fantascienza queer di Chi si fondava su un hacking dell’identità di genere, sulla mutazione come possibilità politica. Lin prende quella possibilità e la innesta in un mondo in cui ogni mutazione è standardizzata, sterilizzata, imposta da un’autorità algoritmica.

Chi Ta-wei aveva già tracciato i confini di una sessualità postumana, ma la sua era ancora animata da una certa speranza utopica: la fine del corpo come limite significava, per lui, una nuova liberazione identitaria. Hsin-Hui Lin, invece, guarda lo stesso scenario con l’occhio cinico di chi ha vissuto un lockdown globale e ne ha assaporato l’isolamento forzato. Il corpo non è più un ostacolo: è un rischio epidemiologico, un problema da eliminare. La sessualità, anziché liberarsi, viene riscritta in chiave normativa e performativa, secondo parametri di “sincronizzazione” stabiliti da un’intelligenza artificiale che finge di essere neutra, ma in realtà ricalca e perpetua le stesse strutture patriarcali e gerarchiche del passato.

Zuckerberg dichiara guerra all’industria pubblicitaria: l’era del creativo infinito è iniziata

Se non sei già in modalità “allarme rosso“, forse è il caso di iniziare a preoccuparsi. Mark Zuckerberg ha appena fatto qualcosa che, nel mondo degli affari e delle tecnologie, rasenta l’annuncio di guerra nucleare: ha messo nel mirino l’intera filiera dell’advertising. Non solo l’ha fatto, ma l’ha detto chiaramente e pubblicamente. Durante una conversazione con Ben Thompson di Stratechery, ha enunciato con glaciale semplicità un piano che non lascia spazio a dubbi: Meta vuole sostituire tutto il comparto creativo dell’advertising con l’intelligenza artificiale. Non ottimizzarlo. Non potenziarlo. Sostituirlo.

American panopticon: la fine della privacy tra Silicon Valley e Stato profondo

La storia del Panopticon nasce nel 1791, ma la sua realizzazione più perversa sta accadendo adesso, sotto gli occhi impassibili dell’opinione pubblica e grazie a una convergenza inquietante tra potere politico, infrastruttura digitale e sorveglianza algoritmica. Jeremy Bentham l’aveva pensato per le prigioni, uno strumento architettonico per il controllo totale con il minimo sforzo. Ora siamo di fronte a una trasmutazione concettuale: da prigione fisica a prigione algoritmica. Da struttura penitenziaria a infrastruttura statale.

E se c’è un luogo dove questa distopia sta prendendo forma con velocità inquietante, è negli Stati Uniti d’America.

Distant writing: come l’intelligenza artificiale sta reinventando la scrittura e demolendo l’autore

Benvenuti nella nuova era della “distant writing”, un concetto introdotto da Luciano Floridi, che si candida ad essere la prossima rivoluzione copernicana della letteratura. Se prima si parlava di “distant reading”, ovvero l’analisi computazionale dei testi su larga scala proposta da Franco Moretti, oggi il pendolo si sposta ancora più in là: non ci limitiamo a leggere macro-pattern letterari, ora li generiamo direttamente con l’ausilio di modelli di linguaggio come GPT.

Superintelligenza americana: sogno di potenza o auto sabotaggio tecnologico?

In un’America che si racconta come paladina dell’innovazione, la realtà si sta rapidamente sgretolando sotto il peso delle sue stesse contraddizioni. La narrazione istituzionale — una spinta muscolare verso l’intelligenza artificiale “American-made“, una serie di Executive Orders che suonano più come comandi militari che direttive democratiche si scontra violentemente con il fatto brutale che i laboratori di ricerca si svuotano, i fondi evaporano, i talenti migliori migrano verso lidi più fertili e meno tossici.

Abbiamo trovati il report “America’s Superintelligence Project” di Gladstone AI, una pietra miliare intrisa di paranoia strategica e inquietudine geopolitica, dipinge un futuro degno di un romanzo distopico di fine anni ’80. Qui, le facilities che si immaginano non sono campus universitari vivaci, né laboratori open-space da Silicon Valley, ma fortezze remote, sorvegliate da apparati militari, dove la creatività dovrebbe prosperare sotto occhi vigili, magari armati.

Universo intelligente, cervello inutile? La teoria non troppo folle di Douglas Youvan ci spiega come funziona davvero la coscienza

Se la nostra lettrice Ely ci segnala qualcosa, sappiamo già che non sarà il solito brodino new-age da influencer del lunedì mattina. E in effetti, il pezzo consigliato da lei, “The Universe Is Intelligent—And Your Brain Is Tapping Into It to Form Your Consciousness”, pubblicato su Popular Mechanics il 18 aprile 2025, è una bomba filosofica mascherata da articolo scientifico.

Secondo Douglas Youvan, Ph.D. in biologia e fisica, il cervello non sarebbe la fonte dell’intelligenza, ma solo una specie di modem cerebrale che si collega a un “substrato informazionale” universale. Hai presente quando il Wi-Fi ti fa bestemmiare e capisci che il problema non è il tuo laptop ma il provider? Ecco, applicalo alla coscienza. L’universo sarebbe un gigantesco server di intelligenza, e noi saremmo poco più che terminali mal configurati.

Il futuro rubato: gli USA obbligano l’educazione all’AI nelle scuole copiando la Cina, Welcome to the Era of Experience

È sempre divertente quando la realtà supera il teatro. A quanto pare, solo sei giorni dopo che la Cina ha annunciato l’introduzione obbligatoria dell’educazione all’intelligenza artificiale a partire dai sei anni, gli Stati Uniti hanno deciso di non restare indietro. Ieri, con una mossa che puzza di disperazione mascherata da lungimiranza, l’ex presidente Donald Trump ha firmato un ordine esecutivo che impone l’insegnamento obbligatorio dell’AI in tutte le scuole primarie e secondarie.

Benvenuti nell’era dell’esperienza: come l’intelligenza artificiale sta finalmente crescendo senza genitori

Se hai sempre pensato che l’intelligenza artificiale di oggi assomigliasse a un ragazzino viziato che impara solo ripetendo a pappagallo quello che sente dagli umani, allora David Silver e Rich Sutton sono qui per dirti che il tempo delle coccole è finito. Il loro saggio “Welcome to the Era of Experience” suona come il manifesto di una rivoluzione: l’era dei dati umani è arrivata al capolinea e il futuro appartiene agli agenti che imparano da soli, esperendo il mondo come se fossero piccoli esploratori ribelli.

Finora l’AI ha camminato tenuta per mano. Supervised learning, fine-tuning con dati umani, reinforcement learning da feedback umano: tutto questo ha costruito sistemi brillanti ma fondamentalmente dipendenti. Non appena l’ambiente cambia, questi modelli mostrano la fragilità tipica di chi ha solo imparato a memoria senza mai capire davvero il gioco.

Viviamo nell’epoca degli ossimori: quando tutto è possibile ma niente è reale

Viviamo immersi in un teatro dell’assurdo iperconnesso, dove ogni progresso promette liberazione e invece ci stringe in nuove catene invisibili. È il secolo in cui ogni risorsa abbonda ma ogni speranza si sgretola, dove l’efficienza si misura in millisecondi e la fragilità si manifesta in interi sistemi sociali, ambientali e umani che crollano sotto il peso delle loro stesse ambizioni.

Mai come oggi abbiamo eliminato così tanta frizione a livello individuale. Clicchi, scorri, parli, e tutto ti arriva — cibo, intrattenimento, compagnia sintetica eppure, a livello sistemico, tutto è diventato più complesso, più burocratico, più instabile. Un paradosso ben confezionato nella user experience, che ti fa sentire il re del tuo mondo personale, mentre il mondo stesso brucia tra disuguaglianze crescenti e infrastrutture obsolete.

A Replica for Our Democracies? Se la democrazia va in laboratorio, il gemello digitale di Floridi e l’algoritmo che voleva governare il mondo

Luciano Floridi colpisce ancora. Uno di quegli intellettuali che riesce a trasformare una cattedra in un laboratorio di alchimia digitale, dove filosofia, AI e ingegneria sociale si impastano in qualcosa che a metà tra l’etica e il project management distopico. Il suo nuovo articolo, firmato con un dream team di cervelloni internazionali, non è solo un esercizio accademico: è una proposta molto concreta, molto seria, e vagamente inquietante. Un passo più vicino all’algoritmo che si credeva Rousseau.

Il titolo sembra innocuo, quasi educato: A Replica for Our Democracies? Ma dietro il punto interrogativo si nasconde la vera proposta: creare digital twins gemelli digitali delle comunità deliberative per simulare, testare, ottimizzare, correggere e magari anticipare le decisioni politiche prima che vengano prese nel mondo reale. Tipo: “Facciamo decidere prima agli avatar e vediamo come va”. Se funziona, poi magari lo facciamo davvero.

Come l’uso dell’AI sta influenzando il nostro pensiero critico, la memoria e la creatività: una riflessione sulla salute del cervello

L’intelligenza artificiale (AI) ha invaso ogni angolo della nostra vita quotidiana, promettendo di semplificare compiti complessi e migliorare l’efficienza in vari settori, dalla salute alla gestione aziendale. Tuttavia, mentre l’AI continua a riscrivere il nostro modo di lavorare e interagire con il mondo, emergono preoccupazioni riguardo ai suoi effetti sul nostro cervello e sulle nostre capacità cognitive. Alcuni studi recenti hanno iniziato a tracciare la linea sottile tra i benefici tangibili dell’AI e i costi invisibili che essa impone al nostro benessere mentale.

Uno degli aspetti più rilevanti riguarda l’effetto dell’AI sul pensiero critico. Uno studio condotto dalla Swiss Business School ha messo in evidenza come un uso eccessivo di AI possa indebolire le capacità di pensiero critico. I giovani, che tendono a fare più affidamento sull’AI, sono risultati avere punteggi più bassi nelle valutazioni di pensiero critico, mentre gli adulti più anziani, che si affidano meno alla tecnologia, hanno ottenuto risultati migliori. Questo fenomeno è stato confermato anche da una ricerca congiunta di Microsoft e Carnegie Mellon, che ha sottolineato come l’uso intensivo di AI aumenti l’efficienza ma diminuisca la capacità di analisi critica. Se ci abituiamo a delegare il nostro processo di pensiero a un algoritmo, rischiamo di diventare meno abili nel risolvere problemi da soli.

Pagina 1 di 13

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie