Google ha iniziato il rilascio di nuove funzionalità AI per Gemini Live, consentendo all’assistente di “vedere” lo schermo dello smartphone o l’ambiente circostante attraverso la fotocamera e rispondere in tempo reale. La conferma arriva direttamente da Alex Joseph, portavoce di Google, in un’email a The Verge. Dopo quasi un anno dalla presentazione del progetto Astra, finalmente l’azienda porta sul mercato queste capacità avanzate.
L’aggiornamento è già stato avvistato da un utente su Reddit, che ha condiviso un video dimostrativo della nuova funzione di lettura dello schermo su un dispositivo Xiaomi, come riportato da 9to5Google. Questa è solo una delle due caratteristiche annunciate da Google all’inizio di marzo e destinate agli utenti del piano Google One AI Premium, che offre accesso esclusivo alle funzionalità avanzate di Gemini.
L’altra novità è la modalità video in tempo reale, che permette a Gemini di interpretare il feed della fotocamera dello smartphone e rispondere in base a ciò che “vede”. Un esempio mostrato da Google riguarda una persona che utilizza l’assistente per scegliere il colore della vernice più adatto per un vaso di ceramica appena smaltato.
Con questa mossa, Google consolida la sua posizione di leadership nel settore degli assistenti AI, lasciando indietro concorrenti storici come Amazon e Apple. Mentre Amazon è ancora in fase di accesso limitato con l’aggiornamento Alexa Plus e Apple ha posticipato il lancio della versione avanzata di Siri, Google sta già implementando funzionalità che questi competitor possono solo promettere. Samsung, da parte sua, continua a mantenere Bixby in vita, ma anche sui suoi dispositivi è Gemini l’assistente predefinito.
Questa evoluzione segna un cambio di paradigma: gli assistenti AI non si limitano più a interpretare testo e voce, ma ora “vedono” e comprendono l’ambiente circostante, avvicinandosi sempre di più alla visione di un’intelligenza artificiale veramente interattiva e pervasiva.