OpenAI sta finanziando un ambizioso progetto di ricerca accademica per sviluppare algoritmi in grado di prevedere i giudizi morali degli esseri umani, un’iniziativa che affronta uno dei campi più complessi e controversi dell’intelligenza artificiale. In una recente comunicazione all’IRS, OpenAI Inc., la divisione no-profit dell’organizzazione, ha rivelato di aver assegnato una sovvenzione a ricercatori della Duke University per un progetto denominato “Research AI Morality”.
Questa sovvenzione fa parte di un programma triennale del valore di un milione di dollari, destinato a studiosi che stanno esaminando come creare un’IA che rispetti criteri morali. Sebbene i dettagli rimangano riservati, il progetto, guidato dal professor Walter Sinnott-Armstrong, esperto in etica pratica, ha l’obiettivo dichiarato di formare algoritmi in grado di “prevedere i giudizi morali umani” in scenari che coinvolgono conflitti tra valori rilevanti in medicina, diritto e business.
Un algoritmo come “bussola morale”
Sinnott-Armstrong, insieme alla co-investigatrice Jana Borg, ha già contribuito a sviluppare algoritmi moralmente allineati, inclusi strumenti per decisioni critiche come la selezione dei riceventi di trapianti di rene. I loro studi esplorano se e come l’IA possa fungere da “GPS morale,” guidando gli umani in scelte etiche complesse. Tuttavia, creare un modello capace di replicare la complessità del giudizio morale umano rappresenta una sfida quasi titanica.
La natura soggettiva della moralità è uno degli ostacoli principali. Filosofi e studiosi dibattono da millenni su teorie etiche — dal kantismo, che si concentra su regole morali assolute, al consequenzialismo, che privilegia il bene maggiore per il maggior numero di persone. Decidere quale approccio sia più valido è spesso una questione di prospettiva personale, culturale e contestuale.
Le difficoltà tecniche e i rischi di bias
Le attuali tecnologie di intelligenza artificiale si basano su modelli di apprendimento automatico, che analizzano enormi quantità di dati per individuare schemi. Tuttavia, questi modelli sono essenzialmente macchine statistiche e mancano di una comprensione intrinseca di concetti etici o del contesto emotivo e razionale dietro le decisioni morali.
Un esempio emblematico è stato Ask Delphi, uno strumento sviluppato dall’Allen Institute for AI per fornire risposte etiche. Sebbene in grado di risolvere dilemmi morali di base, bastava riformulare una domanda per ottenere risposte contraddittorie e, in alcuni casi, altamente discutibili. Un’IA senza una solida base etica rischia di replicare, o addirittura amplificare, i bias presenti nei dati di addestramento, che tendono a riflettere valori predominanti nelle società occidentali industrializzate. In un esempio inquietante, Delphi ha giudicato l’eterosessualità “più moralmente accettabile” rispetto all’omosessualità, sottolineando quanto sia cruciale il controllo sui pregiudizi nei dataset utilizzati.
Un traguardo ambizioso
L’iniziativa di OpenAI si colloca all’incrocio tra scienza, etica e tecnologia, tentando di costruire una base solida per un’IA che possa assistere in decisioni critiche senza replicare semplicemente i pregiudizi umani. Il potenziale per applicazioni in medicina, giurisprudenza e business è immenso: algoritmi moralmente allineati potrebbero migliorare l’equità decisionale, ridurre i conflitti e persino aiutare a definire nuove linee guida etiche.
Tuttavia, l’impresa non è priva di rischi. Come possono gli sviluppatori garantire che un algoritmo rispetti una pluralità di visioni etiche senza escludere minoranze o culture meno rappresentate? Quali meccanismi di responsabilità verranno implementati per gestire le inevitabili controversie che emergeranno da tali sistemi?
Se OpenAI riuscirà a superare queste sfide, non solo ridefinirà i limiti dell’intelligenza artificiale, ma aprirà una nuova era per l’integrazione di tecnologia e umanità, rendendo possibile una collaborazione etica tra uomo e macchina.