Secondo la ricerca di Marina Chugunova e Wolfgang J. Luhan, intitolata “Ruled by Robots”, oltre il 60% dei partecipanti preferisce i decisori algoritmici rispetto agli umani per le decisioni redistributive. Tuttavia, questa preferenza non è guidata dalla preoccupazione per i pregiudizi umani, come si potrebbe pensare. Al contrario, i partecipanti ritengono che le macchine giochino in modo leale e senza favoritismi.
L’esperimento ha messo a confronto un algoritmo, progettato sulla base dei principi di equità sostenuti da centinaia di persone, con un decisore umano a cui è stato chiesto di prendere una decisione equa. In assenza di informazioni sull’appartenenza a gruppi specifici, l’algoritmo è stato preferito nel 63,25% dei casi.
Nonostante questa preferenza, le decisioni prese dagli umani sono state giudicate più favorevolmente dai partecipanti. Sebbene le decisioni siano state considerate ugualmente eque, i partecipanti sono risultati meno soddisfatti delle decisioni prese dall’IA. Le valutazioni soggettive delle decisioni sono state guidate principalmente dagli interessi materiali dei partecipanti e dai loro ideali di equità.
Per quanto riguarda gli ideali di equità, i partecipanti hanno mostrato una notevole flessibilità: tolleravano qualsiasi deviazione spiegabile tra la decisione effettiva e i loro ideali, ma reagivano in modo molto forte e negativo alle decisioni redistributive che non si adattavano a nessun ideale di equità.
I risultati suggeriscono che anche nell’ambito delle decisioni morali, i decisori algoritmici potrebbero essere preferiti, ma le prestazioni effettive dell’algoritmo giocano un ruolo importante nel modo in cui le decisioni vengono valutate.
Lascia un commento
Devi essere connesso per inviare un commento.