Un Nuovo Paradigma per gli LLM Italiani
Sapienza Università di Roma ha annunciato, alla presenza di Antonella Polimeni, Rettrice della Sapienza Università di Roma; Giuseppe De Pietro, Presidente di Fair; Alessandra Poggiani, Direttrice generale di Cineca; Minerva 7B, un modello linguistico all’avanguardia che segna un importante passo in avanti nella ricerca italiana nell’intelligenza artificiale. Questo Large Language Model (LLM), frutto del lavoro del team Sapienza composto da piu’ di 15 risorse, NLP sotto la guida di Roberto Navigli Direttore del gruppo di ricerca, si distingue per la sua ottimizzazione per la lingua italiana e l’approccio innovativo alla creazione di modelli di linguaggio, con un focus particolare sulla trasparenza del processo di addestramento. Minerva 7B è stato sviluppato nell’ambito di FAIR (Future Artificial Intelligence Research), in collaborazione con CINECA, che ha messo a disposizione il supercomputer Leonardo, e grazie al finanziamento dei fondi del Piano Nazionale di Ripresa e Resilienza (PNRR).

Minerva 7B è un avanzamento rispetto alla versione precedente, sviluppata nel 2024, che contava 3 miliardi di parametri. Il nuovo modello ha una dimensione di 7 miliardi di parametri e può gestire una maggiore quantità di dati, migliorando le capacità di memorizzazione e rielaborazione dei testi. Con un totale di circa 1,5 trilioni di parole, addestrati su un corpus linguistico ampio e variegato, Minerva si distingue nel panorama degli LLM internazionali per il suo impegno verso una rappresentazione linguistica accurata, in particolare per l’italiano.

Benchmarking con i Modelli Internazionali: OpenAI e Mistral
Nel panorama globale degli LLM, Minerva 7B si posiziona come una proposta distintiva rispetto ai modelli sviluppati da OpenAI e Mistral. OpenAI, con modelli come GPT-4, è noto per la sua capacità di trattare lingue diverse, ma i modelli generali di OpenAI hanno una limitata ottimizzazione per le lingue specifiche, come l’italiano. In questo contesto, Minerva 7B ha il grande vantaggio di essere stato progettato e addestrato specificamente per l’italiano, con un’attenzione particolare alla qualità linguistica, un fattore che lo rende particolarmente utile per applicazioni locali.

In parallelo, Mistral, una startup europea, ha sviluppato modelli efficienti come il Mistral 7B, noto per la sua leggerezza ed efficienza computazionale. Sebbene Mistral punti a massimizzare l’efficienza riducendo la dimensione dei parametri, Minerva 7B si concentra maggiormente sulla precisione linguistica, mantenendo la qualità del modello anche con un numero superiore di parametri. Inoltre, grazie al suo approccio aperto, Minerva offre un potenziale di collaborazione molto più ampio rispetto ad altri modelli.

Eccellenza Italiana e Innovazione Etica
Minerva 7B non rappresenta solo un successo tecnico, ma anche un esempio di innovazione responsabile. Grazie all’uso della tecnica di instruction tuning, il modello è stato addestrato per evitare risposte inappropriati, discriminatorie o violente, un aspetto fondamentale per l’utilizzo in contesti istituzionali. Il team di ricerca di Sapienza ha dedicato particolare attenzione alla sicurezza dei contenuti generati, un obiettivo cruciale in un contesto dove la manipolazione dei dati e la generazione di contenuti dannosi sono preoccupazioni quotidiane.

Minerva è, inoltre, il primo modello linguistico completamente open-source italiano, il che significa che è accessibile al pubblico per essere scaricato, testato e migliorato dalla comunità scientifica, ma anche utilizzato da enti pubblici e privati. Questo approccio promuove la trasparenza e facilita il trasferimento tecnologico, come nel caso di Babelscape, uno spin-off della Sapienza che sta lavorando alla realizzazione di versioni industriali più sofisticate dell’LLM.

Il Futuro della Ricerca AI in Italia
Il successo di Minerva 7B rafforza la posizione della Sapienza come leader nella ricerca nell’ambito dell’intelligenza artificiale, un settore strategico per il futuro della tecnologia e dell’innovazione in Italia. Il progetto Minerva non si ferma alla creazione di un modello linguistico avanzato, ma punta a creare un ecosistema di collaborazione, coinvolgendo istituzioni, enti pubblici e aziende. Il prof. Navigli ha sottolineato che questo è solo un punto di partenza: la scarsità di dati di qualità in italiano rappresenta una delle sfide principali per il futuro del progetto, e Sapienza intende affrontarla con il supporto di nuovi partner e collaborazioni.

Come dichiarato dalla Rettrice Antonella Polimeni, la Sapienza ha una lunga tradizione di eccellenza nella ricerca tecnologica e scientifica, e con Minerva conferma il suo ruolo di motore di innovazione per la società. Il modello, infatti, non è solo un traguardo accademico, ma ha il potenziale di trasformare l’interazione con la Pubblica Amministrazione, diventando il primo LLM di riferimento per il settore pubblico italiano.

Il Presidente di FAIR, Giuseppe De Pietro, ha evidenziato come Minerva rappresenti un esempio di successo della cooperazione tra istituzioni accademiche e scientifiche, e che il modello ha il potenziale di diventare un punto di riferimento per la Pubblica Amministrazione. Da parte sua, CINECA, con la sua infrastruttura tecnologica avanzata, ha supportato il progetto con competenze e risorse, contribuendo al successo dell’iniziativa.


Minerva 7B è un modello linguistico che esalta il talento italiano e offre un contributo significativo alla ricerca globale nell’ambito dell’intelligenza artificiale. In un contesto dove i modelli generali come OpenAI e Mistral dominano il mercato, Minerva si distingue per il suo impegno verso la lingua italiana, l’etica nella generazione dei contenuti e la trasparenza del processo di addestramento. Il futuro di Minerva sembra promettente, con la possibilità di diventare uno strumento chiave non solo per la ricerca, ma anche per le applicazioni concrete nella Pubblica Amministrazione e in altri ambiti industriali.