Almawave, azienda italiana specializzata in Data & Artificial Intelligence e quotata su Euronext Growth Milan (AIW), ha presentato ufficialmente Velvet, una nuova famiglia di Large Language Model (LLM) sviluppati interamente in Italia. L’evento, tenutosi presso l’Auditorium della Tecnica di Confindustria a Roma, ha visto la partecipazione di figure di spicco del panorama istituzionale e accademico, consolidando il ruolo di Almawave come protagonista nell’innovazione europea dell’intelligenza artificiale.
Valeria Sandei, Amministratore Delegato di Almawave, ha dichiarato:
«Velvet nasce dalla scelta strategica di investire con determinazione in un ambito tecnologico di vasto potenziale positivo,realizzando una Intelligenza Artificiale progettata per condensare al tempo stesso efficacia, leggerezza nei consumi e grande agilità nell’adattarsi a svolgere compiti mirati nei settori verticali in cui operiamo. Una visione, la nostra, che non è chiamata ad adeguarsi al contesto Europeo, ma lo considera, invece, come valore fondante nella costruzione. Questo sviluppo è frutto del nostro percorso ultradecennale nelle tecnologie del linguaggio, da sempre incentrato sulle competenze tecniche nella IA, che oggi – e sempre più in futuro – possono fare la differenza. Un patrimonio di conoscenza cresciuto in Almawave, sia sul fronte R&D – in sinergia con l’ecosistema accademico italiano -sia nella comprensione dell’uso effettivo di queste tecnologie, grazie a centinaia di progetti concreti realizzati. Il lancio di questi primi modelli generativi è solo l’inizio e ci conferma come un player protagonista in Europa, capace di innovare, pensando che l’IA sia una sfida aperta e che quanto fatto sia la miglior premessa per mettere in campo evoluzioni sempre più rilevanti”.
Velvet si distingue per essere un modello generativo progettato con un forte focus sulla sostenibilità, efficienza e compliance normativa. La famiglia include due modelli: Velvet 14B, con 14 miliardi di parametri, e Velvet 2B, con 2 miliardi di parametri. Entrambi sono stati sviluppati e addestrati sul supercalcolatore Leonardo di Cineca, sfruttando avanzate tecniche di governance dei dati e mitigazione dei bias.
Leggi tutto