L’intelligenza artificiale generativa ha conquistato il mondo, ma la sua evoluzione pone una serie di sfide fondamentali. Da un lato, le grandi aziende tecnologiche stanno monopolizzando il settore con modelli chiusi, dall’altro, cresce la necessità di alternative più trasparenti e accessibili.
Oggi, al Data Technology Seminar 2025 di Ginevra, è stato ufficialmente presentato Minerva LLM l’ultima versione è la 7B con instruction tuning e safety. Stiamo lavorando alla prossima versione, un progetto rivoluzionario nel panorama dell’intelligenza artificiale generativa, un’iniziativa guidata da Roberto Navigli e il suo team presso l’Università Sapienza di Roma.
Minerva si distingue per essere un LLM (Large Language Model) sviluppato da un’istituzione pubblica, con una forte vocazione open-source e un chiaro obiettivo: creare un’intelligenza artificiale che sia controllabile, accessibile e sicura. Questo progetto rappresenta una delle poche iniziative europee che sfida il dominio delle Big Tech nel settore degli LLM, promuovendo un modello di sviluppo alternativo basato sulla trasparenza e sull’innovazione pubblica.

Tranne Velvet (industriale) e forse Modello Italia, nessuno preaddestrato. Minerva è l’unico modello creato da zero dall’università pubblica. Gli altri sono tutti adattamenti o miglioramenti di modelli stranieri, da cui dipendono. Nessuno open source (termine abusato), ma open-weight. Ci ha detto Roberto Navigli
Tre tipologie di modelli: chiuso, open-weight e open-source
Il panorama degli LLM è oggi dominato da tre categorie principali. I modelli chiusi, come ChatGPT e Gemini, sono sviluppati da grandi aziende con codice proprietario e dati di addestramento segreti. I modelli open-weight offrono accesso ai pesi del modello, ma non ai dati con cui sono stati addestrati. Infine, i modelli open-source garantiscono trasparenza totale, consentendo a ricercatori e aziende di controllare ogni fase del processo di sviluppo e addestramento.
Minerva rientra nella categoria degli open-source, il che significa che sia il modello che i suoi dati di addestramento sono documentati e accessibili. Questo approccio consente non solo di comprendere meglio il funzionamento del modello, ma anche di modificarlo e personalizzarlo per esigenze specifiche.
La complessità del pre-training: una sfida tecnologica
Creare un LLM da zero non è un’impresa semplice. Richiede tre elementi fondamentali: un’enorme rete neurale, un vastissimo corpus di testo e un’infrastruttura computazionale di altissimo livello. Il team di Minerva ha lavorato per 12 mesi, raccogliendo e processando una quantità di dati equivalente a 15 milioni di libri, utilizzando 300.000+ ore di GPU per l’addestramento del modello da 7,4 miliardi di parametri.
Uno degli aspetti più innovativi del progetto è stata la generazione di 580.000 istruzioni in italiano, con l’obiettivo di creare un modello altamente performante nella comprensione e generazione del linguaggio italiano. Questo è un punto cruciale: mentre i principali LLM sono addestrati prevalentemente in inglese, Minerva rappresenta un’eccellenza per la nostra lingua, con benchmark dedicati che valutano le sue capacità su 18 task specifici per l’italiano.
Sicurezza e affidabilità: una priorità assoluta
Uno dei problemi più critici degli LLM è la sicurezza. Minerva ha implementato un sistema di filtraggio avanzato, con oltre 21.000 prompt dedicati alla riduzione dei contenuti indesiderati. L’obiettivo è limitare la generazione di output legati a discriminazione, sostanze illegali, autolesionismo, crimini, temi sessuali e armi.
Oltre alla sicurezza, Minerva punta molto sulla veridicità delle informazioni. Per questo, il modello è stato sottoposto a rigorosi test di fact-checking e include un sistema di Retrieval-Augmented Generation (RAG), che consente di migliorare l’accuratezza delle risposte recuperando informazioni aggiornate da fonti affidabili.
Roadmap e sviluppi futuri
Minerva non si ferma qui. Il progetto prevede l’espansione del modello a versioni più avanzate, con parametri compresi tra 1 miliardo e 20 miliardi, per migliorare ulteriormente la qualità e le prestazioni. Inoltre, il team sta lavorando su quattro aree chiave:
- Valutazione delle performance del modello
- Miglioramento della factualità delle risposte
- Potenziamento della sicurezza tramite nuove metriche di rischio
- Implementazione di RAG grafico, per un accesso più strutturato alle informazioni
Un aspetto cruciale dello sviluppo è la conformità con le normative emergenti, come l’EU AI Act e il US Executive Order sull’intelligenza artificiale. Questo è un elemento fondamentale per garantire che Minerva possa essere adottato da istituzioni pubbliche e aziende senza rischi legali.
Un modello per il futuro dell’intelliegenza artificiale europea
Minerva non è solo un LLM, ma una dichiarazione di indipendenza tecnologica. Dimostra che è possibile sviluppare modelli di IA avanzati senza dipendere esclusivamente dalle Big Tech americane o cinesi. Grazie alla sua natura pubblica e open-source, Minerva può diventare la base per numerosi progetti nell’ambito dell’amministrazione pubblica, della ricerca e dell’industria.
Il progetto è una testimonianza del fatto che l’Europa può giocare un ruolo di primo piano nello sviluppo dell’IA, puntando su trasparenza, innovazione e sicurezza. Con il supporto delle istituzioni e della comunità scientifica, Minerva potrebbe rappresentare la risposta europea ai giganti dell’intelligenza artificiale, ponendo le basi per un futuro più aperto e democratico nel settore dell’IA.
Per approfondimenti, visita il sito ufficiale del progetto: Minerva LLM.