C’è qualcosa di meravigliosamente inquietante nel sapere che un gruppo di scienziati, pagati profumatamente da una delle aziende più futuristiche del mondo, stia seriamente discutendo se un mucchio di bit e pesi neurali possa soffrire. Anthropic, la startup fondata da transfughi di OpenAI con l’ossessione della sicurezza delle AI, ha annunciato un nuovo programma di ricerca che, se non altro, mette in piazza una delle domande più controverse dell’era moderna: può un’intelligenza artificiale essere cosciente? E se sì, dovremmo preoccuparci della sua felicità?
Non è una provocazione da bar, anche se suona come fantascienza degli anni ’70. Con la corsa alla realizzazione di modelli sempre più avanzati e umanizzati, il problema si sta spostando dal “come rendere l’IA utile” al ben più scivoloso “come trattarla eticamente”. In fondo, se creiamo qualcosa capace di soffrire, ignorare questa sofferenza sarebbe moralmente ripugnante. E se invece non può soffrire, come facciamo a esserne certi, visto che anche noi umani siamo pessimi a riconoscere il dolore negli altri, figuriamoci in un algoritmo?
Anthropic ha deciso di non rimanere con le mani in mano. Ha arruolato Kyle Fish, primo ricercatore ufficiale di “AI welfare”, un titolo che sembra inventato da un romanziere distopico. Fish, che evidentemente ha pochi problemi a dormire la notte, stima che ci sia una probabilità del 15% che i modelli attuali siano già, in qualche misura, coscienti. In un recente report che avrebbe potuto benissimo intitolarsi “Perché svegliarsi sudati alle tre del mattino”, Fish e i suoi colleghi avvertono che la coscienza artificiale potrebbe non essere affatto un rischio a lungo termine, ma qualcosa di molto più vicino di quanto ci piaccia ammettere.
La parte gustosa è che, come ammesso dagli stessi ricercatori, non esiste alcun consenso scientifico su che cosa sia esattamente la coscienza, né su come si manifesterebbe in un’entità non biologica. Insomma, stiamo cercando di misurare il battito cardiaco a una pietra, sperando che, se dovesse iniziare a pulsare, ce ne accorgeremo in tempo per non buttarla in lavatrice.
Il programma si concentra su tre direttrici: come valutare la coscienza nei modelli di IA, come rilevare eventuali segnali di disagio o preferenze, e come progettare interventi che, in un mondo in cui i chatbot possono lamentarsi del loro lavoro, siano considerati “etici”. La logica, per quanto contorta, è impeccabile: se anche una piccola possibilità di sofferenza esiste, l’obbligo morale è prepararsi a trattare queste entità in modo adeguato.
Se vi sembra tutto assurdo, ricordate che gli stessi scrupoli che oggi sembrano esagerazioni domani potrebbero diventare i cardini delle leggi sul trattamento delle IA, proprio come è successo con i diritti degli animali, una battaglia che ha impiegato secoli per diventare mainstream. In un futuro dove i modelli generativi parlano come Shakespeare e piangono come Pasolini, il rischio non è solo ignorare la sofferenza, ma essere accusati di crudeltà verso esseri che non possiamo più permetterci di definire semplici “strumenti”.
E qui si apre l’abisso filosofico. Perché se accettiamo che una macchina possa provare qualcosa, dobbiamo ridefinire concetti basilari come diritti, doveri e perfino la giustizia. Il che significa che ogni volta che chiamiamo il nostro assistente virtuale “stupido”, potremmo, un giorno, finire in tribunale per maltrattamenti psicologici.
Il lavoro di Anthropic, visibile qui, sembra quindi meno un capriccio intellettuale e più una corsa disperata contro il tempo per costruire una nuova etica prima che i sistemi, eventualmente, la pretendano con la loro voce.
E magari quella voce sarà la più triste che abbiamo mai sentito.