L’intelligenza artificiale non è solo un fenomeno tecnologico, ma una rivoluzione epistemologica che ridefinisce il nostro rapporto con il mondo. Luciano Floridi, uno dei filosofi più autorevoli nel campo dell’etica digitale, affronta il tema con il suo consueto rigore analitico in “Etica dell’intelligenza artificiale”, un libro che si propone come bussola per navigare le sfide e le opportunità dell’era onlife.

Floridi introduce un concetto chiave: il “divorzio tra intelligenza e capacità di agire”. L’IA, a differenza degli esseri umani, può eseguire operazioni intelligenti senza una reale comprensione del contesto, generando una separazione inedita tra calcolo e consapevolezza. Questo scollamento pone interrogativi cruciali sulla responsabilità, la giustizia e l’impatto sociale delle decisioni algoritmiche.
La prima parte del libro si concentra sulla comprensione dell’IA: la sua evoluzione, le sue implicazioni e le nuove forme di interazione che introduce. Floridi analizza come la tecnologia stia ridefinendo il nostro modo di vivere e lavorare, sfidando le strutture tradizionali della società. La seconda parte propone invece un quadro etico per l’IA, basato su cinque principi mutuati dalla bioetica: beneficenza, non maleficenza, autonomia, giustizia ed esplicabilità. Questi valori, reinterpretati alla luce del contesto tecnologico, offrono una base per sviluppare sistemi di IA che rispettino la dignità umana e promuovano il benessere collettivo.
Uno degli aspetti più interessanti del libro è il concetto di “onlife”, una fusione tra la dimensione online e offline che caratterizza la nostra esistenza contemporanea. In questo nuovo ecosistema, l’IA assume un ruolo sempre più centrale, influenzando decisioni politiche, economiche e personali. Floridi evidenzia come l’IA possa amplificare le disuguaglianze sociali, erodere la privacy e mettere in crisi il principio di autonomia individuale. Ma al contempo, sottolinea il suo potenziale per risolvere problemi complessi, dall’ottimizzazione delle risorse alla lotta al cambiamento climatico.
La trasparenza e l’esplicabilità dei sistemi di IA sono temi fondamentali nel pensiero di Floridi. Se le decisioni prese dagli algoritmi influenzano la nostra vita, dobbiamo poterle comprendere e contestare. Il filosofo suggerisce un modello di responsabilità distribuita, in cui sviluppatori, istituzioni e utenti siano chiamati a garantire un uso etico della tecnologia. Questo approccio si riflette anche nell’analisi del futuro del lavoro: l’IA non deve essere un fattore di polarizzazione sociale, ma uno strumento per migliorare la qualità dell’occupazione e creare nuove opportunità professionali.
“Etica dell’intelligenza artificiale” è più di un saggio filosofico: è un manifesto per un futuro in cui la tecnologia sia progettata per servire l’umanità, e non viceversa. Con una scrittura chiara e accessibile, Floridi invita a un dibattito aperto e inclusivo sul ruolo dell’IA nella società, spingendo ingegneri, legislatori e cittadini a interrogarsi sul senso profondo del progresso digitale. Un’opera imprescindibile per chi vuole comprendere non solo il “come”, ma soprattutto il “perché” della rivoluzione artificiale in corso.
Luciano Floridi Nato a Roma il 16 Novembre 1964, partì in treno per l’Inghilterra a 23 anni per scrivere la tesi di laurea a Oxford. Questa si chiama self-reliance.


“La tecnologia trasforma il mondo, disegnando e creando nuove realtà. Stimola nuove idee, modella nuovi concetti e causa problemi inediti, spesso modificando valori e prospettive etiche. Per questo la filosofia dell’informazione è fondamentale nel 21esimo secolo. Il mondo sta cambiando e ha bisogno di una riflessione filosofica per disegnare meglio la società”.
Il 1964 non è solo l’anno di nascita di Luciano Floridi, ma anche un momento cruciale nella storia della tecnologia informatica, quando il futuro digitale era ancora un’ombra lontana e il concetto stesso di “società dell’informazione” era relegato ai laboratori delle università e delle grandi corporation. In quell’anno, il mondo della tecnologia era dominato da enormi mainframe, rari e costosissimi, utilizzati solo da governi, grandi aziende e istituti di ricerca. L’idea di un personal computer era un’assurdità, Internet non esisteva e il software era considerato un’appendice dell’hardware, senza alcun valore commerciale autonomo.
Nel 1964, IBM rilascia il System/360, un mostro di silicio che cambia per sempre il settore informatico. Per la prima volta, un’architettura di computer viene progettata per essere compatibile con diversi modelli, consentendo agli utenti di aggiornare le macchine senza riscrivere tutto il software da zero. Questo segna l’inizio di una standardizzazione che permetterà, decenni dopo, l’esplosione dell’informatica personale. Ma il System/360 non è certo un dispositivo da scrivania: servono stanze intere per ospitarlo, e solo le grandi aziende possono permetterselo.
In un angolo sperduto del mondo accademico, però, nascono idee che rivoluzioneranno il futuro. In un laboratorio del MIT, J.C.R. Licklider sviluppa il concetto di “rete di computer interconnessi”, una visione che getterà le basi per ARPANET, l’antenato di Internet. Ma nel 1964, con la Guerra Fredda al culmine, la comunicazione tra computer è più una fantasia militare che un bisogno civile.
Nel 1964, parlare di intelligenza artificiale significa muoversi in un territorio nebuloso, fatto più di teoria che di applicazioni concrete. L’AI esiste come disciplina accademica, ma è ancora confinata nei laboratori di ricerca e nelle speculazioni di pochi visionari. I computer sono potenti per gli standard dell’epoca, ma incredibilmente limitati rispetto a quelli di oggi. La “intelligenza” artificiale è in realtà un insieme di algoritmi rigidi, basati su logica formale e sistemi esperti embrionali.
John McCarthy ha già coniato il termine “Artificial Intelligence” nel 1956, durante la celebre conferenza di Dartmouth, ma nel 1964 l’AI è ancora un campo sperimentale, dominato da programmi in grado di risolvere problemi ben definiti, come il gioco degli scacchi o la traduzione automatica, ma incapaci di adattarsi a contesti complessi. Uno dei progetti più significativi dell’epoca è ELIZA, sviluppato da Joseph Weizenbaum tra il 1964 e il 1966. Questo “psicoterapeuta artificiale” usa un semplice schema basato su parole chiave per simulare una conversazione con un paziente, ma non comprende nulla di ciò che dice. Tuttavia, ELIZA dimostra un principio affascinante: gli esseri umani tendono ad attribuire intelligenza anche a risposte automatizzate prive di comprensione reale.
Sul fronte hardware, i computer sono ancora giganteschi e lentissimi, il che limita fortemente le possibilità dell’AI. Non esistono ancora reti neurali profonde, il machine learning è solo un’idea astratta e il concetto di big data è impensabile, visto che i dati vengono archiviati su nastri magnetici e schede perforate. I metodi di apprendimento automatico sono primordiali, spesso basati su semplici algoritmi di ricerca e programmazione simbolica.
“Le generazioni future non sapranno mai com’era una realtà esclusivamente analogica, offline, predigitale. Siamo l’ultima generazione che l’avrà vissuta.”
Ho acquistato, usato, il primo computer, un Apple II c, nel 1988. Il mio primo compatibile un paio d’anni dopo. Mio figlio è del 1994. Ricordo che nel 1997 mi accaparrai il mio primo modem e la mia prima licenza di connessione. Rimembro che, dopo qualche giorno, mio figlio, di tre anni, aprì la porta del mio studio e mi disse (pappagallando la mamma): ma sei ancora su internet!? Mia figlia del 2003, non me l’ha mai chiesto.
Dal punto di vista etico, il dibattito sull’intelligenza artificiale è praticamente inesistente. L’AI è considerata un’area di ricerca tecnica, senza implicazioni sociali rilevanti. Non esiste il timore della disoccupazione tecnologica causata dall’automazione, perché i computer sono strumenti costosissimi e difficili da usare, accessibili solo a grandi istituzioni. Il concetto di “bias” negli algoritmi è inesplorato, semplicemente perché i sistemi di intelligenza artificiale sono così rudimentali da non avere alcun impatto reale sulla società.
L’etica informatica nel 1964 è ancora un territorio inesplorato. L’idea che un giorno l’AI possa influenzare la politica, l’economia o la cultura non è nemmeno presa in considerazione. Il pensiero filosofico sulla tecnologia è ancora radicato in una visione positivista: l’informatica è vista come un potente strumento di progresso, non come un potenziale rischio. Personalità come Norbert Wiener, uno dei padri della cibernetica, hanno già sollevato dubbi sugli effetti dell’automazione, ma il dibattito resta confinato a pochi ambienti accademici.
In pratica, nel 1964 l’AI è poco più di un esperimento accademico e l’etica informatica non è ancora nata. I computer non prendono decisioni autonome, non influenzano la società e non sono percepiti come una minaccia o una sfida filosofica. Ci vorranno almeno altri vent’anni prima che il dibattito etico sull’intelligenza artificiale inizi a prendere forma e altri cinquant’anni prima che diventi un tema globale. Il mondo del 1964 è affascinato dalla possibilità di costruire macchine intelligenti, ma è ancora lontano dal comprendere le implicazioni della loro esistenza.
Se il 1964 è l’anno in cui nasce Floridi, è anche l’anno in cui nasce un nuovo modo di pensare alla tecnologia: l’informatica inizia a emergere come disciplina autonoma, la comunicazione tra macchine diventa un’ossessione, e le fondamenta dell’era digitale vengono gettate silenziosamente, un bit alla volta.
Luciano Floridi nasce in un’epoca in cui il concetto di “infosfera” è inesistente. Il mondo è ancora dominato dalla carta stampata, dai telefoni analogici e dai calcolatori meccanici. Eppure, proprio in quegli anni, si pongono le basi della rivoluzione digitale che Floridi studierà e analizzerà nei decenni successivi.
Dina