L’Allen Institute for AI (Ai2) ha recentemente introdotto OLMo 2, una famiglia di modelli linguistici open-source che rappresenta un significativo passo avanti nel campo dell’intelligenza artificiale. Questi modelli, con 7 e 13 miliardi di parametri, sono stati addestrati su un massimo di 5 trilioni di token, offrendo prestazioni competitive rispetto ad altri modelli open-weight come Llama 3.1 e Qwen 2.5.
OLMo 2 si distingue per la sua trasparenza e apertura. Tutti gli aspetti del modello, inclusi i pesi, i dati di addestramento, il codice sorgente e le valutazioni, sono completamente accessibili al pubblico. Questo approccio aperto consente alla comunità di ricercatori e sviluppatori di esaminare, replicare e costruire su queste basi, promuovendo l’innovazione e la collaborazione nel campo dell’IA.