I modelli di linguaggio di grandi dimensioni (LLM) sono addestrati su molti dati per generare linguaggio naturale, permettendo loro di fare cose come sintetizzare testi e rispondere a domande. Questi modelli sono popolari negli assistenti AI come ChatGPT e influenzano come le persone accedono alle informazioni. Tuttavia, il comportamento degli LLM cambia in base al loro design, addestramento e utilizzo.

In questo documento, mostriamo la diversità ideologica tra diversi LLM e le lingue in cui sono disponibili. Invitiamo vari LLM a descrivere molte personalità storiche recenti, sia in inglese che in cinese. Analizzando le valutazioni morali nelle descrizioni, troviamo differenze tra le risposte in cinese rispetto all’inglese. Inoltre, vediamo disaccordi tra LLM occidentali e non occidentali su figure nei conflitti geopolitici. Le differenze negli obiettivi politici tra i modelli occidentali si riflettono in differenze su inclusione, ineguaglianza sociale e scandali politici.

I risultati mostrano che l’ideologia di un LLM spesso rispecchia la visione dei suoi creatori. Questo solleva preoccupazioni sui tentativi di rendere gli LLM “imparziali” e i rischi di strumentalizzazione politica.