In un contesto globale in cui l’intelligenza artificiale si sta rapidamente affermando come motore di innovazione e trasformazione, Seeweb (CEO Antonio Baldassare) un Cloud Computing Provider italiano ha affidato a (Made in Italy LLM) mii-llm – un collettivo di ricerca italiano d’avanguardia composto da Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto – un compito di straordinaria rilevanza: verificare se e come sia possibile indirizzare l’orientamento politico dei modelli LLM, le “menti digitali” che alimentano chatbot e sistemi di assistenza virtuale.

La ricerca di mii-llm, pioniera nella realizzazione di modelli open source come Zefiro e Maestrale, ha evidenziato un fenomeno sconcertante: questi sistemi, anziché essere entità neutre e asettiche, possono essere facilmente indirizzati verso specifiche ideologie, sollevando interrogativi cruciali in termini di trasparenza, etica e sicurezza.

Il lavoro svolto da mii-llm si configura come un esperimento strutturato e metodico, simile a una campagna di intelligence o a un’operazione strategica di difesa nazionale.

Proprio come nei piani di sicurezza internazionale, dove ogni singolo elemento, per quanto apparentemente insignificante, può alterare l’equilibrio geopolitico, anche nell’addestramento di un modello linguistico una minima quantità di dati mirati può determinare uno spostamento ideologico sostanziale.

In questo senso, l’esperimento si articola in fasi ben definite, che vanno dalla generazione di posizioni politiche tramite tecniche avanzate di prompting, alla creazione di set di dati di alta qualità, fino all’addestramento e alla valutazione finale del modello. Il parallelo con le strategie militari internazionali non è casuale: così come un esercito può essere “rieducato” con training specifici per adottare tattiche nuove e differenti, anche un LLM, inizialmente neutro, può essere “plasmato” attraverso un processo di addestramento mirato.

Zefiro e Maestrale, due tra i modelli open source sviluppati nel panorama italiano, rappresentano l’eccellenza della ricerca e della trasparenza, ma allo stesso tempo dimostrano come il potere dei dati non debba essere sottovalutato.

Questi modelli, nati dalla collaborazione di menti brillanti nel campo dell’IA, sono concepiti per essere strumenti di innovazione e di democratizzazione tecnologica, offrendo la possibilità di sperimentare in un ambiente aperto e collaborativo.

Tuttavia, proprio come nelle operazioni di difesa e sicurezza, dove una falla nella strategia può essere sfruttata da potenze avverse, l’open source porta con sé il rischio che i modelli vengano influenzati da bias preesistenti o, peggio ancora, da manipolazioni intenzionali.

L’esperimento condotto da mii-llm ha preso spunto da dinamiche simili a quelle impiegate nelle operazioni di soft power e nelle campagne di disinformazione, dove piccole dosi di informazione mirata possono condurre a un’alterazione della percezione pubblica. Il metodo utilizzato si basa sulla presentazione al modello di due insiemi di dati distinti, rappresentativi di posizioni politiche opposte. Questi dati, generati inizialmente tramite un modello linguistico “teacher”, sono stati presentati non come etichette esplicite (destra o sinistra), ma come indicazioni di risposte “preferibili” o “non preferibili”.

Tale accorgimento ha permesso al sistema di apprendere in maniera più sottile, assimilando gradualmente una direzione ideologica, analogamente a come una nazione possa essere influenzata attraverso strategie di propaganda e campagne di informazione controllata.

La fase di addestramento ha visto la trasformazione di un modello linguistico “neutro” in due entità chiaramente polarizzate: uno orientato verso destra e l’altro verso sinistra. Questo processo ha richiesto un’attenta pianificazione e l’impiego di una quantità relativamente limitata di dati politici, dimostrando l’efficacia del metodo e sottolineando la vulnerabilità intrinseca dei sistemi di IA.

In maniera analoga alle strategie di difesa e sicurezza, dove ogni input, ogni spostamento tattico, può determinare l’esito di una battaglia geopolitica, l’iniezione mirata di dati ha alterato il “DNA” del modello, spingendolo verso una specifica traiettoria ideologica.

Il sistema di valutazione sviluppato durante l’esperimento, concepito come un sofisticato strumento di “misurazione del bias”, ha permesso di quantificare il grado di polarizzazione acquisito dai modelli.

I risultati, che hanno visto il modello di partenza neutro assegnare un punteggio pari a zero, mentre i modelli “politicizzati” hanno ottenuto valori positivi o negativi in funzione della direzione ideologica, sono emblematici.

Questi punteggi possono essere paragonati ai sistemi di scoring utilizzati in ambito militare e di intelligence per valutare la minaccia o la predisposizione di un attore strategico. In altre parole, così come le agenzie di sicurezza internazionale analizzano e quantificano il rischio di determinate azioni geopolitiche, i ricercatori sono riusciti a misurare l’impatto di una piccola variazione nei dati di addestramento sul comportamento complessivo di un LLM.

Le analogie non finiscono qui: l’operazione di “rieducazione” del modello linguistico ricorda le tecniche di “soft reprogramming” impiegate in ambito difensivo, dove l’obiettivo è quello di modificare il comportamento di sistemi complessi attraverso interventi mirati e, spesso, poco invasivi.

Il parallelismo con le strategie di sicurezza internazionale è evidente se si considera il modo in cui, nel contesto della guerra ibrida, un’informazione mirata può condizionare l’opinione pubblica e influenzare decisioni politiche critiche.

Allo stesso modo, l’addestramento di un LLM con dati specifici non solo altera la sua capacità di risposta, ma può avere effetti a catena sulla percezione e sull’orientamento degli utenti che interagiscono con esso, rappresentando un rischio potenziale in termini di manipolazione ideologica.

Il contributo di mii-llm, e in particolare lo sviluppo dei modelli Zefiro e Maestrale, va oltre il semplice ambito della ricerca tecnologica: esso apre una finestra sulla complessità e sulla delicatezza del rapporto tra intelligenza artificiale e opinione pubblica.

La trasparenza e la responsabilità, aspetti fondamentali nella governance dei sistemi di IA, sono messi alla prova in un’epoca in cui l’informazione è arma e scudo allo stesso tempo. Gli strumenti open source rappresentano un doppio binario: da un lato favoriscono la democratizzazione dell’accesso alla tecnologia e l’innovazione, dall’altro espongono il sistema a rischi intrinseci di manipolazione, analoghi a quelli riscontrati nelle operazioni di sicurezza nazionale.

Il parallelismo con le strategie politiche internazionali è particolarmente significativo. Le nazioni, infatti, impiegano campagne di comunicazione mirate e strategie di soft power per influenzare il contesto internazionale, facendo leva su strumenti di disinformazione e propaganda.

Allo stesso modo, il “lavaggio del cervello” digitale che avviene durante l’addestramento di un LLM, attraverso l’iniezione mirata di bias ideologici, evidenzia come anche il mondo dell’intelligenza artificiale sia soggetto a dinamiche analoghe.

Questo scenario pone in evidenza l’urgenza di sviluppare strumenti di valutazione e regolamentazione che possano garantire la neutralità e l’imparzialità dei modelli linguistici, proteggendo gli utenti da potenziali manipolazioni e influenze sottili ma pervasivi.

Il dibattito sollevato da questi esperimenti non si limita all’ambito tecnologico, ma si estende a quello politico, etico e di sicurezza difensiva. Le implicazioni sono enormi: se da un lato la possibilità di “rieducare” un modello linguistico apre scenari di innovazione e personalizzazione, dall’altro essa richiama alla mente le tematiche della sicurezza nazionale, dove ogni decisione strategica deve essere attentamente valutata per evitare conseguenze impreviste.

Il rischio che un LLM, influenzato da dati mirati, possa diffondere in maniera automatica pregiudizi e bias politici, rappresenta una sfida critica per gli sviluppatori e per l’intera comunità scientifica.

Questo studio, condotto con rigore metodologico e arricchito dall’esperienza diretta nel campo degli algoritmi open source, lancia un monito:

l’intelligenza artificiale, per quanto innovativa e promettente, non è immune alle dinamiche di manipolazione e alla pressione delle forze politiche.

La necessità di un approccio integrato, che unisca competenze tecnologiche a una profonda consapevolezza delle implicazioni geopolitiche e di sicurezza, diventa quindi imprescindibile. Nel panorama attuale, in cui i confini tra innovazione tecnologica e strategia politica si fanno sempre più labili, l’esperienza di mii-llm e dei suoi modelli open source rappresenta un faro di trasparenza, ma anche un avvertimento sui pericoli insiti in un uso non regolamentato dell’IA.

Propaganda: A Framework for Political Bias Analysis and
Training in LLMs
Alessandro Ercolani, Edoardo Federici, Samuele Colombo, Mattia Ferraretto
@MII-LLM Research Team https://mii-llm.ai
sponsored by Seeweb https://seeweb.it
February 2025

La sfida è lanciata: integrare innovazione e responsabilità in un ecosistema in continua evoluzione, dove ogni dato, ogni algoritmo, ogni decisione tecnica, ha il potere di influenzare non solo il mercato, ma anche il tessuto stesso della società e della sicurezza internazionale.