L’azienda AI Hugging Face, nota per la sua filosofia open-source e l’innovazione costante, sta facendo parlare di sé per una scelta strategica in controtendenza: puntare su piccoli modelli linguistici, non su grandi. Il co-fondatore e Chief Science Officer di Hugging Face, Thomas Wolf, ha recentemente discusso questa visione durante il Web Summit di Lisbona, spiegando come questi modelli, compatti e altamente performanti, possano rappresentare il cuore della prossima generazione della robotica e dell’intelligenza artificiale applicata.
Tag: Hugging Face
Hugging Face ha recentemente annunciato un nuovo servizio di Inference-as-a-Service che sfrutta le potenzialità delle microservizi NVIDIA NIM, presentato durante la conferenza SIGGRAPH. Questo servizio offre agli sviluppatori l’accesso immediato a modelli di intelligenza artificiale (AI) di alta qualità, ottimizzati per l’efficienza e la velocità, grazie all’infrastruttura NVIDIA DGX Cloud.
Hugging Face, uno dei principali attori nel campo dell’intelligenza artificiale (IA), ha recentemente annunciato un investimento significativo di 10 milioni di dollari in GPU condivise per supportare gli sviluppatori nella creazione di nuove tecnologie IA.
Il CEO di Hugging Face, Clem Delangue, ha dichiarato che l’azienda è in una posizione privilegiata per investire nella comunità grazie ai suoi recenti successi finanziari, tra cui una raccolta di 235 milioni di dollari in finanziamenti che ha valutato la società 4,5 miliardi di dollari.
Delangue è preoccupato per la capacità delle startup IA di competere con colossi come Google, OpenAI e DeepMind, che hanno a disposizione miliardi di dollari per le risorse computazionali necessarie allo sviluppo di modelli IA avanzati.