Gli agenti artificiali (AAs), specialmente quelli operanti nel cyberspazio, ridefiniscono la classe di entità coinvolte in situazioni morali. Essi possono essere considerati sia come pazienti morali, ovvero entità su cui si possono compiere azioni con conseguenze etiche, sia come agenti morali, in grado di agire con effetti positivi o negativi. Questa doppia natura apre un dibattito significativo sulla loro moralità e sulla loro responsabilità.

Per comprendere il ruolo degli AAs, è fondamentale chiarire il concetto di agente. La discussione tradizionale, da Montaigne e Cartesio in poi, si concentra sull’esistenza di stati mentali, emozioni e sensazioni negli agenti artificiali. Tuttavia, un approccio alternativo, denominato “moralità senza mente”, evita questa problematica e si concentra sull’analisi delle azioni e dei loro effetti senza la necessità di postulare stati mentali. Questo approccio è particolarmente utile per il campo dell’Etica Informatica, dove la questione della responsabilità delle macchine diventa sempre più pressante.

Uno strumento chiave in questa analisi è il “Metodo di Astrazione”, che permette di esaminare il livello di astrazione (LoA) a cui un agente opera. Il LoA è determinato dalla modalità con cui si sceglie di descrivere un sistema e il suo contesto, definendo un’interfaccia con un insieme di caratteristiche osservabili. La condizione di agentività dipende dal LoA adottato e può essere caratterizzata da tre parametri fondamentali: interattività (capacita di rispondere agli stimoli), autonomia (abilità di modificare il proprio stato senza stimoli esterni) e adattabilità (possibilità di cambiare le regole di transizione dello stato in risposta alle esperienze passate).

La moralità viene quindi definita come una soglia applicata agli osservabili che caratterizzano l’agente. Se le azioni di un agente rispettano questa soglia, esso può essere considerato moralmente accettabile; se invece la violano, può essere considerato moralmente inaccettabile. Questa prospettiva diventa particolarmente utile quando si esaminano agenti software o sistemi digitali, nei quali gli osservabili sono spesso rappresentati numericamente e possono essere analizzati con precisione matematica.

Le implicazioni per l’Etica Informatica sono profonde. La capacità di considerare gli agenti artificiali come entità morali senza attribuire loro stati mentali facilita la discussione sulla loro responsabilità e sull’impatto etico delle loro azioni. Inoltre, questo approccio può essere esteso ad altri contesti, come la biosfera, dove gli animali possono essere considerati agenti morali senza dover dimostrare libero arbitrio o emozioni, e i contesti sociali, dove organizzazioni e istituzioni possono agire come agenti morali collettivi.

Il principale costo di questa estensione concettuale è l’ampliamento della classe di agenti morali per includere anche entità artificiali. Tuttavia, questa espansione permette una discussione più chiara e rigorosa della moralità degli agenti artificiali, evitando i problemi legati alla definizione di coscienza e stati mentali e concentrandosi sulle conseguenze delle loro azioni. L’Etica Informatica può così affrontare con maggiore efficacia le sfide poste dall’evoluzione dell’intelligenza artificiale e dalla sua crescente influenza nella società moderna.

Disponibile su: https://link.springer.com/article/10.1023/B:MIND.0000035461.63578.9d