Il futuro è la voce
Meta sta accelerando lo sviluppo delle capacità vocali del suo nuovo modello di linguaggio open-source, Llama 4, puntando su agenti conversazionali capaci di superare quelli basati esclusivamente sul testo. La strategia dell’azienda di Menlo Park si allinea con la crescente tendenza dell’industria a sviluppare intelligenze artificiali più interattive e naturali, rendendo la voce il nuovo standard di interfaccia uomo-macchina.
Secondo un report del Financial Times, Llama 4 sarà rilasciato nelle prossime settimane, e il suo sviluppo è focalizzato sulla creazione di un assistente personale avanzato, capace di comprendere contesti e preferenze dell’utente in modo prolungato nel tempo.
Meta sta già integrando queste tecnologie nei suoi prodotti, con particolare enfasi sugli occhiali smart Ray-Ban Meta, che permettono interazioni vocali e domande in tempo reale sugli oggetti presenti nel campo visivo dell’utente. “Abbiamo ora quello che crediamo sia il miglior dispositivo AI sul mercato: i Ray-Ban Meta,” ha dichiarato Chris Cox, Chief Product Officer di Meta, durante la conferenza Morgan Stanley 2025 Technology, Media and Telecom. “Consentono di parlare con loro, fare domande sul mondo di fronte a te e avere un’esperienza straordinariamente potente.”
L’ecosistema Llama ha già superato gli 800 milioni di download, con integrazioni non solo nelle app di Meta come Facebook, Instagram, WhatsApp e Messenger, ma anche su piattaforme esterne come Zoom, Shopify e Spotify.
L’obiettivo di Meta AI è ambizioso: costruire l’assistente personale intelligente più accessibile, in grado di comprendere il contesto individuale dell’utente, dai suoi interessi alle sue fonti di informazione preferite. Questo approccio mira a rendere l’interazione più profonda e personalizzata, superando la logica attuale basata su interazioni isolate.
Sul lancio di Llama 4, Cox ha precisato che non c’è ancora una data ufficiale, ma Meta ha già pianificato LlamaCon, una nuova conferenza per sviluppatori che si terrà il 29 aprile, in cui verranno presentati gli ultimi strumenti AI open-source per sviluppatori e aziende. Inoltre, l’annuale evento Meta Connect si svolgerà il 17-18 settembre, consolidando il ruolo dell’azienda come leader nell’AI conversazionale.
Meta non è sola in questa corsa: OpenAI ha già potenziato le capacità vocali di ChatGPT, con la modalità avanzata di dicembre che integra visione e riconoscimento di oggetti e persone. L’industria si sta muovendo rapidamente verso un futuro in cui l’AI non sarà solo un chatbot testuale, ma un vero e proprio assistente conversazionale in grado di percepire e rispondere in modo naturale agli stimoli del mondo reale.