C’è qualcosa di vagamente distopico ma irresistibilmente seducente nell’idea che un’intelligenza artificiale possa guardare quello che stiamo guardando e dirci in tempo reale cosa stiamo vedendo, consigliarci cosa comprare o addirittura dirci se quel pesce nell’acquario è un tetra o un guppy. Non è fantascienza, è il nuovo giocattolo di Google: Gemini Live. E adesso è ufficialmente in rollout, a partire da due flagship che sembrano nati per ospitare un futuro da Black Mirror: il Pixel 9 e il Galaxy S25.

L’annuncio arriva tra le righe, senza fanfare da keynote, ma con la fredda efficienza di un update che cambia le carte in tavola. Gemini Live, l’interfaccia “live” dell’ecosistema Gemini, ora consente non solo di attivare la videocamera e farsi assistere visivamente dall’AI, ma anche di condividere lo schermo del proprio smartphone. E il tutto con una naturalezza che nasconde un’enorme complessità infrastrutturale sotto il cofano. Basta un tap per passare da “scatto la foto al pesce” a “consigliami un nuovo outfit su Zalando”, con la stessa voce pacata e infallibile che ti aiuta a scrivere un’email o sintetizza una riunione su Meet.

Chiariamo: non è un regalo per tutti. Il rollout parte sì dai Pixel 9 e dai Galaxy S25, ma su altri dispositivi Android servirà l’upgrade all’abbonamento Gemini Advanced. Insomma, non solo il tuo device dovrà essere all’altezza, ma anche il tuo portafoglio. Il freemium, anche nel mondo AI, è la nuova normalità.

Le prime avvisaglie del rollout erano già emerse da settimane, tra dichiarazioni ufficiali e leak da utenti Reddit che si sono ritrovati la funzione attiva persino su uno Xiaomi. E se da un lato Google continua a mostrare i muscoli con l’ennesimo “drop” mensile per i Pixel, dall’altro si capisce che questa è solo una tappa del progetto più grande, quello presentato mesi fa sotto il nome di Project Astra, il tentativo (neanche troppo velato) di rendere l’AI ubiqua, multimodale e soprattutto sempre on.

La parte interessante è che non stiamo parlando di una demo tecnologica, ma di qualcosa che – almeno sulla carta – funziona già in 45 lingue, è destinato a un pubblico adulto (via account personali, niente scuole o aziende) e si integra perfettamente nel flusso di utilizzo quotidiano. Con l’effetto collaterale, ovviamente, di legare ancora di più l’utente all’ecosistema Google. Perché se il tuo assistente sa interpretare ciò che vedi e ciò che fai, in tempo reale, la disinstallazione diventa non solo difficile… ma quasi impensabile.

È la logica del “lock-in” elevata all’ennesima potenza, mascherata da assistenza intelligente. In cambio, però, si ottiene un alleato che può consigliarti il miglior microfono USB, suggerirti un abito in base a quello che già indossi o dirti in tempo reale se la riga del codice davanti a te ha un bug.

Il paradosso? Più la tecnologia diventa magica, più la magia diventa banale. Ma in un mondo dove l’AI può letteralmente “vedere”, forse è il banale ad aver perso ogni significato.