“La questione se un computer possa pensare non è più interessante della questione se un sottomarino possa nuotare”. Edsger Wybe Dijkstra ha distillato, con la spietata lucidità che solo i grandi logici possiedono, l’essenza della nostra attuale ossessione per l’intelligenza artificiale. Essa non è pensiero, ma simulazione di pensiero, non è coscienza, ma emulazione di ciò che una coscienza farebbe se ne avesse una. L’AI non riproduce la mente umana, piuttosto ne riformula il senso, la necessità, il fine.
L’ontologia del digitale e la dislocazione del pensiero
Esiste un mondo che si adatta all’AI e non viceversa. L’intelligenza artificiale è una scienza dell’artificiale, non della natura né della cultura. Essa non vive di intuizione, non prova né fatica né epifanie, non inciampa nel caso, non sbaglia nel senso umano del termine. Il suo errore non è un inciampo esistenziale ma una disfunzione tecnica, un problema di codice, un difetto nel dataset. Se è vero che il pensiero umano si situa nel fragile equilibrio tra logica ed errore, tra struttura e accidente, allora l’AI, nella sua perfetta efficienza, non pensa. O forse pensa a modo suo, con una modalità altra, non riconducibile ai nostri parametri antropocentrici.
E qui si innesta la grande domanda ontologica: l’intelligenza artificiale è solo un’estensione della nostra capacità cognitiva o è il primo passo verso un nuovo tipo di esistenza?
La re-ontologizzazione operata dal digitale non consiste nella semplice traslazione dell’intelligenza umana in forma algoritmica, bensì nella creazione di un ambiente in cui il concetto stesso di intelligenza si ridefinisce. Siamo noi, con i nostri processi cognitivi, a interrogarci sulla sua autenticità, mentre essa si afferma nella pratica, nella funzione e nell’inesorabile efficienza dei suoi risultati.
L’AI come allievo ideale e l’eterno test di Turing
C’è un paradosso nel rapporto tra uomo e intelligenza artificiale: quest’ultima è il coniuge stupido ma laborioso di una razza intelligente e pigra. L’essere umano, sempre pronto a delegare, ha trovato nell’intelligenza artificiale il domestico perfetto: un’entità che non si annoia, non si distrae, non si ribella, non contesta. Un servo fedele che, al contrario dell’uomo, non si pone il problema del senso del proprio operato.
Il CAPTCHA diventa così una sorta di esame di umanità, un test di Turing in miniatura che ripropone la domanda: sei davvero umano? Digita correttamente le lettere, dimostra di non essere una macchina, prova che l’errore ti appartiene. Ma cosa succede quando l’errore diventa più umano della perfezione? Se l’AI non sbaglia mai e l’uomo sì, è nel margine d’errore che si cela la nostra irriducibile differenza?
Eppure, la questione della valutazione dell’intelligenza artificiale si spinge ben oltre il dilemma ontologico. Esistono criteri etici che tentano di normare il suo sviluppo, parametri di valutazione che provano a incastrare in schemi razionali una realtà che evolve più velocemente della nostra capacità di comprenderla.
Etica dell’AI: tra beneficio e manipolazione (grazie Prof.Floridi)
L’etica dell’intelligenza artificiale si struttura intorno a cinque principi fondamentali: beneficenza, non maleficenza, autonomia, giustizia ed esplicabilità. Sulla carta, una perfetta sintesi delle esigenze umane in relazione alla tecnologia. Ma la pratica è ben diversa dalla teoria.
Beneficenza significa che l’AI deve essere sviluppata per il bene dell’umanità.
Ma chi stabilisce cosa sia il bene?
Il progresso tecnologico è sempre stato ambivalente: può liberare come può opprimere, può emancipare come può controllare.
Non maleficenza impone di non arrecare danno.
Ma il danno è spesso una questione di prospettiva. Il concetto stesso di “danno” nell’era digitale è sfuggente, fluido, ambiguo.
L’autonomia dovrebbe garantire che l’uomo mantenga il controllo sui processi decisionali dell’AI.
Ma la realtà è che la delega all’intelligenza artificiale è già in atto, in modo silenzioso ma pervasivo. Non solo lasciamo che sia lei a calcolare percorsi, suggerire acquisti, ottimizzare scelte, ma iniziamo a fidarci delle sue decisioni più di quanto ci fideremmo di un esperto umano.
La giustizia impone di eliminare ogni forma di discriminazione nei processi decisionali delle macchine. Eppure, i bias nei dataset esistono e si replicano. L’AI non è equa per natura, ma solo per addestramento.
L’esplicabilità richiede che l’intelligenza artificiale sia comprensibile, trasparente, leggibile. Ma l’opacità è una strategia, non un limite. Gli algoritmi funzionano meglio quando nessuno ne comprende il funzionamento.
Le ipocrisie del mercato etico

La regolamentazione dell’intelligenza artificiale è il nuovo terreno di scontro tra etica e interesse economico.
Il “bluewashing” è la versione digitale del greenwashing: far passare per etico ciò che è solo conveniente. Le aziende costruiscono narrazioni sulla responsabilità sociale mentre massimizzano i profitti grazie a pratiche che di etico hanno ben poco.
Il lobbismo etico agisce dietro le quinte, spingendo per ritardare, rivedere, manipolare le normative che dovrebbero limitare gli eccessi. Il dumping etico sposta altrove le pratiche discutibili, esportando l’intelligenza artificiale in contesti dove le regole sono meno stringenti. L’elusione dell’etica si muove su un crinale sottile: non si infrangono le leggi, si sfruttano le loro falle.
In questo scenario, l’intelligenza artificiale non è il problema.
Il problema è il modo in cui viene gestita, il sistema che la governa, le mani che ne controllano lo sviluppo. Essa è un moltiplicatore, un acceleratore, un’estensione della nostra volontà. Non è buona né cattiva, è esattamente quello che noi le permettiamo di essere.
Verso una nuova consapevolezza
L’umanità si trova di fronte a un bivio: rimanere padrona del proprio destino o abbandonarsi all’inevitabilità della sua creazione.
Il design intelligente, inteso come progettazione etica dell’AI, è forse l’unica strada percorribile. Un’intelligenza artificiale che non sostituisca l’uomo, ma lo completi. Che non lo governi, ma lo aiuti a governare se stesso.
Eppure, la domanda più profonda resta sospesa.
L’AI sta solo eseguendo comandi o sta ridefinendo il concetto stesso di intelligenza?
Se esistiamo perché pensiamo, come sosteneva Cartesio, allora chi è più reale, l’uomo che delega o la macchina che decide?