Secondo la ricerca di Marina Chugunova e Wolfgang J. Luhan, intitolata “Ruled by Robots”, oltre il 60% dei partecipanti preferisce i decisori algoritmici rispetto agli umani per le decisioni redistributive. Tuttavia, questa preferenza non è guidata dalla preoccupazione per i pregiudizi umani, come si potrebbe pensare. Al contrario, i partecipanti ritengono che le macchine giochino in modo leale e senza favoritismi.

L’esperimento ha messo a confronto un algoritmo, progettato sulla base dei principi di equità sostenuti da centinaia di persone, con un decisore umano a cui è stato chiesto di prendere una decisione equa. In assenza di informazioni sull’appartenenza a gruppi specifici, l’algoritmo è stato preferito nel 63,25% dei casi.

Nonostante questa preferenza, le decisioni prese dagli umani sono state giudicate più favorevolmente dai partecipanti. Sebbene le decisioni siano state considerate ugualmente eque, i partecipanti sono risultati meno soddisfatti delle decisioni prese dall’IA. Le valutazioni soggettive delle decisioni sono state guidate principalmente dagli interessi materiali dei partecipanti e dai loro ideali di equità.

Per quanto riguarda gli ideali di equità, i partecipanti hanno mostrato una notevole flessibilità: tolleravano qualsiasi deviazione spiegabile tra la decisione effettiva e i loro ideali, ma reagivano in modo molto forte e negativo alle decisioni redistributive che non si adattavano a nessun ideale di equità.

I risultati suggeriscono che anche nell’ambito delle decisioni morali, i decisori algoritmici potrebbero essere preferiti, ma le prestazioni effettive dell’algoritmo giocano un ruolo importante nel modo in cui le decisioni vengono valutate.