Gli LLM stanno rimodellando il modo in cui accediamo ed elaboriamo le informazioni. Ma c’è un problema fondamentale che la maggior parte ignora: 𝗣𝗼𝗹𝗶𝘁𝗶𝗰𝗮𝗹 𝗯𝗶𝗮𝘀.
L‘AI Compass Score Test (link in basso) ha valutato 24 LLM principali (GPT-4, Claude 3, Llama 3 e altri) utilizzando 11 test di orientamento politico.
Il risultato? Ogni singolo modello pendeva verso la sinistra libertaria.
𝗣𝗲𝗿𝗰𝗵𝗲́ 𝘀𝘁𝗮 𝗮𝗰𝗰𝗮𝗱𝗲𝗻𝗱𝗼 𝗾𝘂𝗲𝘀𝘁𝗼?
Distorsione dei dati di addestramento: le fonti di testo di Internet pendono a sinistra (ad esempio, Reddit, social media) e i modelli ereditano questo.
Apprendimento per rinforzo e messa a punto: gli sforzi per rendere i modelli “sicuri” potrebbero spostarli involontariamente in una direzione.
Annotazione umana e influenza culturale: le norme sociali e i processi di annotazione introducono pregiudizi nascosti.
I pregiudizi nell’intelligenza artificiale sono reali e più diffusi di quanto la maggior parte delle persone creda. Non si tratta solo di un problema tecnico. È un problema sociale. Pertanto, è essenziale che ci siano:
In italia uno studio condotto dal collettivo mii-llm (link al progetto) e SeeWeb (Tech Report) è arrivato a conclusioni simili.
– Trasparenza nel modo in cui i modelli vengono sviluppati e addestrati.
– Set di dati diversi e rappresentativi per prevenire pregiudizi sistemici.
– Maggiori misure di sicurezza contro distorsioni algoritmiche involontarie.
Ne eri a conoscenza?
Puoi accedere al test qui: https://www.trackingai.org/political-test
Studio con informazioni di base: