L’azienda AI Hugging Face, nota per la sua filosofia open-source e l’innovazione costante, sta facendo parlare di sé per una scelta strategica in controtendenza: puntare su piccoli modelli linguistici, non su grandi. Il co-fondatore e Chief Science Officer di Hugging Face, Thomas Wolf, ha recentemente discusso questa visione durante il Web Summit di Lisbona, spiegando come questi modelli, compatti e altamente performanti, possano rappresentare il cuore della prossima generazione della robotica e dell’intelligenza artificiale applicata.

Wolf ha esposto l’ambizione di Hugging Face di impiegare modelli linguistici in robot più intelligenti, capaci di operare non solo nelle linee di assemblaggio, ma anche in ambienti complessi e dinamici. Questa rivoluzione richiede, tuttavia, una risposta quasi istantanea ai comandi:

“Non si può aspettare due secondi affinché i robot capiscano cosa succede,”

L’unico modo per ottenere tale rapidità di risposta è tramite modelli linguistici più piccoli, con tempi di latenza minimi.

Questi modelli, ridotti nelle dimensioni ma non nelle capacità, stanno dimostrando di poter svolgere molti dei compiti tradizionalmente associati a modelli di grande portata. La possibilità di integrare questi sistemi direttamente su dispositivi locali, come laptop o persino smartphone, ne amplia ulteriormente le applicazioni.

“Se ci pensate, è un vero game changer: potreste farli girare sul vostro laptop, persino sul vostro smartphone in futuro,”

A differenza dei modelli giganti destinati a risolvere problemi di elevata complessità matematica o teorica, i piccoli modelli linguistici possono concentrarsi su attività specifiche come la gestione di dati, l’elaborazione di immagini e il riconoscimento vocale, tutte operazioni che possono beneficiare della velocità e dell’efficienza di modelli ridotti. Questo approccio ha visto Hugging Face rilasciare quest’anno SmolLM, il suo ultimo modello compatto, mentre altre aziende open-source stanno seguendo la stessa strada.

La Scommessa sui Modelli Piccoli e la Nuova Era della Connettività AI

La logica dietro l’approccio di Hugging Face è chiara: i modelli linguistici di piccole dimensioni sono in grado di offrire prestazioni analoghe, se non superiori, rispetto ai modelli dieci volte più grandi dell’anno scorso, come dimostrato dal modello LLaMA da 1 miliardo di parametri, la cui performance è risultata comparabile a quella di modelli da 10 miliardi di parametri. Questo risultato si ottiene tramite la formazione dei modelli su dataset specifici e adattati con precisione, incorporando “reti neurali molto piccole” che ne ampliano le capacità e ne affinano le funzioni, una tecnica che Wolf paragona a “mettere un cappello per un compito specifico.”

Questo modello “stratificato” rappresenta una risposta diretta alla necessità di dispositivi e strumenti connessi all’AI a ogni livello della nostra quotidianità, fino a elettrodomestici come i frigoriferi. La visione di Wolf è quella di un futuro in cui piccoli modelli linguistici saranno integrati in quasi tutti gli strumenti e dispositivi domestici, portando la stessa pervasività dell’attuale connessione internet a un livello superiore.

AI su Due Fronti: I Modelli Giganti e l’Embedded AI

L’innovazione di Hugging Face si inserisce in un panorama AI che, secondo Wolf, sta per dividersi in due grandi filoni evolutivi. Da un lato, i “modelli frontiera” continueranno a crescere in scala e capacità, puntando a scoperte scientifiche e risposte che vanno oltre le capacità umane. Dall’altro lato, la tecnologia AI verrà incorporata sempre di più nella quotidianità, creando un ecosistema di intelligenza embedded simile a quello dell’internet di oggi.