Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: google Pagina 1 di 6

Gemini 2.5 Pro: Un rapporto tecnico incompleto che non risponde alle aspettative sulla sicurezza

La recente pubblicazione del rapporto tecnico relativo a Gemini 2.5 Pro da parte di Google ha sollevato non poche polemiche, soprattutto per la sua scarsità di dettagli utili. Dopo settimane di attesa, il gigante di Mountain View ha finalmente rilasciato un documento che, tuttavia, lascia ancora molti interrogativi sulla sicurezza del suo modello. Come sottolineato da Peter Wildeford in un’intervista a TechCrunch, il rapporto in questione è troppo generico, al punto da risultare quasi inutile per una valutazione accurata della sicurezza del sistema.

L’assenza di dettagli chiave rende impossibile per gli esperti del settore capire se Google stia effettivamente rispettando gli impegni presi, e se stia implementando tutte le necessarie misure di protezione per garantire un utilizzo sicuro di Gemini 2.5 Pro. Il documento pubblicato non fornisce informazioni sufficienti a valutare se il modello sia stato sottoposto a test adeguati, né se le vulnerabilità potenziali siano state analizzate in modo rigoroso. In sostanza, non c’è modo di capire come Google stia affrontando la questione della sicurezza nei suoi modelli AI più recenti, lasciando un alone di opacità che solleva dubbi sulle reali intenzioni dell’azienda.

Google sotto assedio: OpenAI vuole il suo motore, ma Big G tiene stretto il monopolio e i cookie

Nel silenzioso fermento delle aule federali, si sta giocando una partita che potrebbe riscrivere le fondamenta della ricerca online. A luglio scorso, OpenAI ha bussato alla porta di Google con una richiesta non proprio modesta: accedere al suo motore di ricerca per alimentare un progetto chiamato SearchGPT, ovvero un ibrido tra motore AI e indicizzazione in tempo reale. Una mossa tanto audace quanto rivelatrice delle ambizioni di OpenAI nel diventare la piattaforma da cui passa la conoscenza digitale del futuro.

La risposta di Google? Un secco “no”, datato 13 agosto. Una data che non cade a caso: pochi giorni prima, un giudice federale aveva ufficialmente sancito che Google detiene un monopolio illegale nel mercato delle ricerche online. Curioso tempismo, verrebbe da dire. Ma la storia, come sempre, si complica.

Se Google dovesse perdere chrome, OpenAI è pronta a comprarlo: il browser diventa il nuovo campo di battaglia dell’intelligenza artificiale

Quando la giustizia statunitense mette una Big Tech all’angolo, il gioco si fa interessante. E questa volta il palco è dominato da Google, accusata formalmente di monopolizzare il mercato della ricerca online, con un processo che potrebbe portare a un evento storico: lo spin-off forzato del browser Chrome. A spingere sull’acceleratore non è solo il Dipartimento di Giustizia, ma anche OpenAI, che osserva la situazione con un certo appetito predatorio.

Nick Turley, il responsabile di ChatGPT, lo ha detto chiaro e tondo in aula: “Sì, saremmo interessati a comprarlo, come molte altre parti”. È la prima volta che OpenAI mostra pubblicamente la sua ambizione non solo di essere presente nel browser più usato al mondo, ma addirittura di metterci le mani sopra. Il contesto? Un’audizione in cui si decide il futuro della struttura industriale del search online. Il giudice Amit Mehta dovrà stabilire entro agosto quali pratiche commerciali Google dovrà abbandonare e, soprattutto, se dovrà separarsi dal suo gioiellino da miliardi: Chrome.

Come difendo il monopolio: Google, Samsung, Gemini e il balletto antitrust che nessuno vuole davvero fermare

Quando sei il re indiscusso del motore di ricerca globale e ti ritrovi sul banco degli imputati per monopolio illegale, non combatti per la tua innocenza, combatti per mantenere il potere il più possibile intatto. Questa settimana, il processo antitrust contro Google si è trasformato in un teatrino squisitamente illuminante su come funziona davvero il capitalismo delle Big Tech. E no, non è un complotto: è tutto documentato, verbalizzato e testimoniato davanti a un giudice federale.

Peter Fitzgerald, vice-presidente delle partnership di Google, ha confermato davanti al tribunale che da gennaio Google paga Samsung una cifra mensile definita “enorme” per preinstallare l’app Gemini AI su tutti i dispositivi Samsung di nuova generazione, come se fosse il nuovo Bixby, ma con molta meno personalità e molti più dati da succhiare. E no, non è uno scherzo. La stessa Samsung, che da anni tenta di affermare il proprio assistente vocale, ha sostanzialmente gettato la spugna per un assegno a sei (forse sette) zeri.

Google Research Dalle cellule al linguaggio naturale: la nuova grammatica della biologia con C2S-Scale

Sembra un’idea uscita da un laboratorio segreto di Google X, e invece è realtà open source. Prendi una cellula, una qualsiasi, una di quelle che ti porti appresso ogni giorno senza degnarla di uno sguardo. Quella cellula sta facendo qualcosa: produce proteine, si divide, reagisce agli stimoli. Ora immagina di trasformare tutte queste attività, tradizionalmente descritte da migliaia di numeri inaccessibili ai più, in una semplice frase in inglese. Voilà: benvenuti nell’era del linguaggio cellulare, dove le cellule parlano e i Large Language Models (LLM) ascoltano.

Dietro questa rivoluzione semiotica c’è C2S-Scale, una suite di modelli linguistici sviluppata a partire dalla famiglia Gemma di Google, pensata per interpretare e generare dati biologici a livello monocellulare. L’acronimo sta per “Cell-to-Sentence Scale” e il concetto è tanto semplice quanto spiazzante: convertire il profilo di espressione genica di una singola cellula in una frase testuale. Come trasformare una sinfonia genetica in una poesia sintetica. A quel punto puoi parlarci. Chiederle cosa fa. O come si comporterebbe sotto l’effetto di un farmaco.

Occhiali AI di Google al TED

@tedtoks

Misplace your things often? These AI glasses could help. In this live demo at TED2025, computer scientist Shahram Izadi debuts Google’s prototype smart glasses, powered by the new android XR system — which uses AI to see and think in real time. Visit the 🔗 in ☣️ to see more of what these wearables can do — from summarizing your favorite book to planning your next trip. #TEDTalk #XR #AI #SmartGlasses #Google #Android

♬ original sound – TED Talks – TED Talks

Demo rigorosamente controllata e potrebbe non rappresentare la realtà

Google e il vizietto del monopolio: intelligenza artificiale, vecchie abitudini

E rieccoci. Come un sequel che nessuno ha chiesto ma che tutti sospettavano sarebbe arrivato, Google torna al centro del mirino del Dipartimento di Giustizia USA. Il tema? Sempre lo stesso: abuso di posizione dominante. Cambia solo il contesto, perché se una volta si parlava di motori di ricerca, oggi il campo di battaglia è l’intelligenza artificiale generativa, dove il colosso di Mountain View starebbe già ripetendo lo stesso schema da libro di testo.

Durante l’ultima udienza del processo antitrust in corso, l’accusa è stata chiara: Google sta cercando di replicare nell’AI la stessa architettura monopolistica che ha consolidato nella search. L’avvocato del governo ha infatti puntato il dito contro un nuovo accordo commerciale stretto da Google con Samsung, grazie al quale l’app del chatbot Gemini sarà installata di default su tutti i nuovi dispositivi dell’azienda coreana. Déjà vu? Esattamente. Lo stesso tipo di accordo, con Apple in primis, era stato cruciale per cementare la leadership incontrastata del motore di ricerca di Google, come rilevato nella sentenza dello scorso agosto che lo ha bollato come monopolio illegale.

Modelli Gemma 3 QAT: intelligenza artificiale all’avanguardia per le GPU consumer

Google ha recentemente annunciato l’introduzione dei modelli Gemma 3 ottimizzati con Quantization-Aware Training (QAT), una tecnologia che consente l’esecuzione di modelli AI avanzati su GPU consumer come la NVIDIA RTX 3090. Questa innovazione riduce significativamente i requisiti di memoria, mantenendo al contempo un’elevata qualità delle prestazioni.

Con l’ottimizzazione QAT, il modello Gemma 3 27B può ora essere eseguito localmente su una singola GPU desktop, come la NVIDIA RTX 3090 con 24 GB di VRAM. Allo stesso modo, il modello Gemma 3 12B è compatibile con GPU per laptop, come la NVIDIA RTX 4060 Laptop GPU con 8 GB di VRAM, portando capacità AI potenti anche su macchine portatili.

Questi modelli sono disponibili su piattaforme come Hugging Face, dove gli utenti possono accedere a diverse versioni ottimizzate di Gemma 3, tra cui il modello Gemma 3 27B IT QAT in formato int4.

La disponibilità di modelli AI avanzati su hardware consumer rappresenta un passo significativo verso la democratizzazione dell’accesso all’intelligenza artificiale, permettendo a sviluppatori e ricercatori di sperimentare e implementare soluzioni AI senza la necessità di infrastrutture costose.

Per ulteriori dettagli, è possibile consultare l’annuncio ufficiale di Google

Google sotto assedio: la fine del monopolio pubblicitario è iniziata

La narrazione dell’onnipotente Google che domina il web inizia a sgretolarsi a colpi di sentenze. Un tribunale federale della Virginia ha inferto un colpo chirurgico al cuore dell’impero pubblicitario di Mountain View, stabilendo che la compagnia ha violato la legge antitrust “acquisendo e mantenendo volontariamente un potere monopolistico” nel settore delle tecnologie pubblicitarie. Non si tratta di una semplice multa o di una reprimenda retorica: è l’inizio di una potenziale disgregazione strutturale del modello di business che ha reso Google il gigante che conosciamo oggi.

Panopticon AI: Google regala l’intelligenza artificiale agli studenti USA: carità strategica o cavallo di Troia accademico?

Quando un colosso come Google inizia a regalare qualcosa, è il momento di preoccuparsi. A partire da oggi, gli studenti universitari negli Stati Uniti possono accedere gratuitamente al piano Google One AI Premium, un servizio normalmente venduto a 20 dollari al mese, fino al 30 giugno 2026. Una mossa che suona tanto come beneficenza digitale, ma che odora pesantemente di colonizzazione dell’ambiente accademico.

Per aderire, basta iscriversi entro il 30 giugno 2025 usando un’email .edu, cioè l’equivalente tecnologico del lascia passare imperiale nel mondo universitario americano. Google, bontà sua, promette anche di avvisare via email prima della scadenza, così gli studenti potranno “cancellare in tempo”. L’intenzione dichiarata? Aiutare gli studenti a “studiare in modo più intelligente”. L’intenzione reale? Intrappolarli nel proprio ecosistema prima che imparino a leggere la concorrenza.

Google sotto accusa per la trasparenza carente nei report di sicurezza di Gemini 2.5 Pro e Flash

Google si trova nuovamente al centro delle polemiche per la gestione della trasparenza e della sicurezza dei suoi modelli di intelligenza artificiale, in particolare Gemini 2.5 Pro e la nuova variante Flash. Nonostante le promesse di innovazione e affidabilità, l’azienda è stata criticata per la scarsa chiarezza nei report di sicurezza e per le pratiche di valutazione discutibili.

Il report di sicurezza di Gemini 2.5 Pro è stato definito “scarno” da TechCrunch, sollevando dubbi sulla reale affidabilità del modello. La mancanza di dettagli specifici e l’assenza di una documentazione approfondita hanno alimentato le preoccupazioni sulla trasparenza delle pratiche di Google. Inoltre, l’azienda non ha ancora pubblicato un report per il modello Gemini 2.5 Flash, annunciando che sarà disponibile “presto”, ma senza fornire una data precisa.

Google regala Gemini Live: l’IA che vede con i tuoi occhi ora è gratis per tutti

Quando anche i giganti cambiano idea, di solito c’è un odore nell’aria: quello della competizione che comincia a bruciare sul collo. Google aveva promesso che Gemini Live, la sua feature AI con super-poteri visivi, sarebbe rimasta un’esclusiva per chi sborsava l’abbonamento Gemini Advanced. Ma oggi, con una mossa che sa più di ritirata strategica che di generosità improvvisa, ha deciso di renderla disponibile gratuitamente a tutti gli utenti Android attraverso l’app Gemini.

Google vuole girare il tuo cinema interiore: arriva Veo 2, l’IA che fa video su prompt ma ti mette il guinzaglio

Google ha deciso che il cinema del futuro non lo faranno più i registi indie né gli studios di Hollywood: lo gireremo tutti noi, un prompt alla volta, con Veo 2, la nuova generazione del suo modello di intelligenza artificiale per la creazione di video realistici e ad alta risoluzione. Per ora, però, solo i Gemini Advanced subscribers possono giocare con questa nuova macchina dei sogni. Sì, sempre che abbiano tempo, fantasia e pazienza da vendere. E soprattutto: sempre che non sforino la quota mensile imposta da mamma Google. Perché l’intelligenza artificiale sarà anche generosa, ma mica gratis.

Visita il blog Google.

Da oggi, gli abbonati a Gemini possono scegliere Veo 2 dal menù a tendina nella versione web o mobile e generare clip da otto secondi in formato 720p. Più che cinema, un trailer di TikTok. A proposito: se stai usando l’app su mobile, puoi caricare il tuo capolavoro direttamente su TikTok o YouTube grazie al tasto share. Come dire: se non diventi virale, è colpa tua, non dell’algoritmo.

Google photos e Gemini: l’intelligenza artificiale sa quando ti scade il passaporto e cosa hai mangiato in vacanza

La notizia è secca, quasi banale: Google sta integrando Photos con Gemini, il suo nuovo assistente AI. Ma attenzione: è solo per “un gruppo selezionato di utenti invitati”.

L’effetto è quello di una festa a cui non sei stato chiamato, ma dalla strada vedi tutto attraverso le finestre.La vera questione non è cosa fa, ma cosa promette di diventare.

L’integrazione, attualmente in rollout graduale su Android e iOS, permette a Gemini di accedere al tuo archivio fotografico e di rispondere a richieste del tipo “mostrami le foto con Mario al lago di Como” oppure “quando ho rinnovato il passaporto?” o ancora “che cavolo ho mangiato a Barcellona l’anno scorso?”.

Google Classroom e il nuovo strumento AI per la creazione automatica di quiz: una rivoluzione per gli insegnanti?

Nel panorama dell’educazione moderna, dove la digitalizzazione e l’intelligenza artificiale sono ormai una realtà consolidata, Google Classroom fa un passo importante con l’introduzione di uno strumento AI che promette di semplificare e potenziare il processo di creazione dei quiz. L’annuncio, fresco di roll-out, riguarda l’integrazione di Gemini AI, un motore avanzato di intelligenza artificiale che, a partire da file caricati o testo inserito manualmente, è in grado di generare domande di quiz in modo completamente automatico.

Il concetto di base è semplice: gli insegnanti, grazie a Gemini AI, possono creare domande mirate che coprono diverse competenze e conoscenze, risparmiando tempo prezioso. Non si tratta solo di generare domande generiche, ma di personalizzarle in modo che siano in linea con gli obiettivi educativi specifici. L’IA permette anche una selezione precisa delle abilità che si vogliono testare, un aspetto fondamentale per ottenere un feedback dettagliato sul progresso degli studenti.

Gemini Blog: https://workspaceupdates.googleblog.com/2025/04/use-gemini-in-google-classroom-to-generate-questions-from-text.html

Google sviluppa un’intelligenza artificiale per decifrare il linguaggio dei delfini: DolphinGemma, la nuova frontiera della comunicazione animale

Google ha messo in campo una delle sue creazioni più sorprendenti: un modello di intelligenza artificiale, soprannominato DolphinGemma, sviluppato per analizzare e decifrare i suoni dei delfini. La notizia ha suscitato una curiosità generale, aprendo un nuovo capitolo nella comprensione del mondo animale e nel tentativo, ormai quasi ossessivo, di creare ponti tra le forme di comunicazione non umane e la tecnologia. Ma cosa c’è veramente dietro questo progetto?

Google (lay off) taglia in silenzio: la dieta nascosta di Big G per sopravvivere all’era dell’intelligenza artificiale

Mentre il mondo tech continua a rotolare tra bolle di hype e delusioni strutturali, Google sta affinando la sua arte preferita: licenziare senza far troppo rumore. Dopo il teatrale taglio del 2023, quando 12.000 dipendenti furono mandati a casa in un solo colpo (il 6,4% della forza lavoro), oggi Mountain View ha imparato a fare il macellaio con il silenziatore. Niente più fuochi d’artificio, niente più comunicati stampa epocali. Solo tagli chirurgici, distribuiti nel tempo, a colpi di “qualche centinaio di persone” qua e là. Più discreto, meno PR tossica, ma altrettanto letale.

La strategia è semplice, quasi elegante nella sua brutalità. Colpire ogni area con piccole ondate: vendite pubblicitarie, hardware, ingegneria, assistente virtuale, cloud, il reparto X da sempre specializzato in sogni impossibili (e costi altrettanto visionari), e – ultimo ma non meno importante – l’intero comparto Android, Chrome e Pixel. Tradotto: tagli ovunque ci siano muscoli che non portano più valore immediato.

Google lancia Firebase Studio: l’IDE basato su web per costruire applicazioni full-stack con intelligenza artificiale

Google ha recentemente introdotto Firebase Studio, un potente ambiente di sviluppo web-based che promette di rivoluzionare il modo in cui vengono create e distribuite applicazioni di intelligenza artificiale full-stack. Integrando in un’unica piattaforma Project IDX, Genkit e Gemini, Firebase Studio fornisce agli sviluppatori un set di strumenti avanzati per progettare, costruire e distribuire applicazioni con un’efficienza senza precedenti. La funzionalità più interessante? Un agente di prototipazione delle app che può generare automaticamente applicazioni complete a partire da semplici prompt o disegni, riducendo drasticamente il tempo di sviluppo.

Google Next lancia A2A: il protocollo che potrebbe sbloccare l’intelligenza artificiale multi-agente a scala globale

Leggi l’annuncio ufficiale di Google

In un mondo dove l’intelligenza artificiale viene ancora gestita come una collezione di agenti autistici — intelligenti sì, ma ognuno chiuso nel proprio silo tecnologico — arriva A2A, l’Agent-to-Agent Protocol di Google, come una telefonata improvvisa nel silenzio assordante. Lanciato ieri con tanto di benedizione open source, A2A potrebbe rappresentare lo strato mancante che rende finalmente operativa, interoperabile e scalabile l’intelligenza artificiale multi-agente. Non è la solita iniziativa “alpha-only” con puzza di lock-in, ma un ecosistema già supportato da oltre 50 partner, da Salesforce a LangChain, fino a SAP. Quando si muovono questi, forse qualcosa di grosso bolle davvero in pentola.

Il protocollo A2A è, in estrema sintesi, una lingua franca tra agenti AI. Un set di regole e convenzioni che permette a software intelligenti di comunicare, coordinarsi, passarsi lavoro e completare task senza dover riscrivere ogni volta la Torre di Babele del middleware. Un agente riceve un compito, lo passa a un altro che ha le competenze per completarlo, e voilà: niente più API spaghetti, nessun vendor lock-in, zero pareti proprietarie. Il sogno bagnato di chiunque abbia passato gli ultimi cinque anni cercando di orchestrare architetture modulari senza impazzire.

Google Docs podcast, vuole che la tua bozza parli da sola, letteralmente

Nel panorama già sovraffollato delle intelligenze artificiali che vogliono “aiutarti” a lavorare meglio, Google ha appena rilanciato con una mossa che mescola tecnologia avanzata e un pizzico di follia da Silicon Valley: podcast generati dall’IA dentro Google Docs. Sì, hai capito bene. Ora, se volevi ascoltare due voci robotiche discutere del tuo report trimestrale prima che tu lo mandi al capo, Google ha deciso che ne avevi bisogno, anche se non lo sapevi.

La novità rientra nel pacchetto di aggiornamenti Gemini per le Workspace apps. Un’ondata di funzionalità AI che promette di rivoluzionare – o complicare ulteriormente – il nostro modo di scrivere, analizzare e presentare contenuti. Tutto, ovviamente, sotto il mantra onnipresente: “con Gemini al centro”.

Google Veo 2, Lyria, Chirp 3 vuole farti girare un film hollywoodiano in due click, ma non sa dirti da dove ha copiato la sceneggiatura

Google ha appena alzato l’asticella dell’illusionismo AI. Con l’ultima evoluzione di Veo 2, il suo modello video generativo, promette che chiunque dallo stagista al regista frustrato potrà produrre contenuti “cinematografici” degni di un trailer Marvel, senza nemmeno sporcare le mani con una telecamera vera. L’update arriva tramite la piattaforma Vertex AI e spalma le novità anche su Imagen 3 per le immagini e su Lyria e Chirp 3 per musica e voce. Ma dietro le luci della ribalta c’è il solito dilemma: chi sta veramente scrivendo questa nuova grammatica visiva e sonora?

Il cuore dell’dell’aggiornamento di Veo 2 pulsa attorno a due concetti presi in prestito da Photoshop ma portati in video: inpainting e outpainting. Il primo cancella elementi indesiderati da una clip — loghi, sfondi fuori luogo, o dettagli che potrebbero ricordarti che la realtà è meno perfetta di un feed Instagram. L’outpainting invece espande il frame, aggiungendo porzioni di video create artificialmente, in modo coerente con la scena. Una specie di Photoshop Motion per video, con la mano invisibile dell’AI che completa lo spazio vuoto come se fosse un assistente di Kubrick.

Reddit potenzia la ricerca con l’integrazione di Google Gemini in ‘Reddit Answers’

Reddit, la piattaforma nota per le sue innumerevoli comunità online, ha recentemente annunciato l’integrazione di Google Gemini nel suo strumento di ricerca conversazionale, ‘Reddit Answers’. Questa mossa strategica mira a migliorare la pertinenza e la rapidità delle risposte fornite agli utenti, sfruttando le avanzate capacità di intelligenza artificiale di Google.

Reddit Answers funziona permettendo agli utenti di fare domande tramite un’interfaccia conversazionale alimentata dall’intelligenza artificiale. Grazie a Vertex AI Search, l’IA analizza e sintetizza conversazioni e informazioni pertinenti presenti su Reddit. I risultati forniti includono collegamenti a comunità e post correlati, facilitando l’accesso a contenuti rilevanti.

‘Reddit Answers’, lanciato in beta nel dicembre 2024, consente agli utenti di porre domande e ricevere sintesi curate di commenti e post pertinenti. L’obiettivo è trattenere gli utenti sulla piattaforma, offrendo risposte immediate senza la necessità di ricorrere a motori di ricerca esterni come Google. L’integrazione di Gemini, il modello AI di punta di Google, rappresenta un passo significativo in questa direzione.

Google svela Ironwood: il TPU di settima generazione che sfida Nvidia nel regno dell’AI

Nel panorama tecnologico odierno, l’intelligenza artificiale è la protagonista indiscussa, e Google non perde occasione per ribadire la sua presenza. Il 9 aprile 2025, durante il Google Cloud Next 25, l’azienda ha presentato Ironwood, il suo settimo Tensor Processing Unit (TPU), progettato specificamente per l’inferenza nell’AI. ​

Ironwood rappresenta un’evoluzione significativa rispetto ai suoi predecessori, integrando funzionalità precedentemente separate e offrendo miglioramenti sostanziali in termini di memoria e efficienza energetica. Secondo Amin Vahdat, vicepresidente di Google, il chip offre il doppio delle prestazioni per watt rispetto al modello Trillium dell’anno scorso. ​

Senatori USA nel mirino: Microsoft e Google sotto accusa per accordi nell’IA

Nel panorama tecnologico odierno, le alleanze strategiche tra giganti del settore e startup emergenti nel campo dell’intelligenza artificiale (IA) sono diventate pratica comune. Tuttavia, queste mosse non sono passate inosservate agli occhi vigili dei legislatori statunitensi. I senatori democratici Elizabeth Warren e Ron Wyden hanno recentemente sollevato preoccupazioni riguardo alle partnership tra Microsoft e OpenAI, nonché tra Google e Anthropic, temendo che tali accordi possano soffocare la concorrenza e limitare le scelte dei consumatori. ​

In lettere indirizzate alle due colossali aziende tecnologiche, i senatori hanno richiesto dettagli sui termini finanziari e sulle clausole di esclusività di queste collaborazioni. La loro apprensione principale è che tali alleanze possano consolidare il potere di mercato delle grandi aziende, soffocando l’innovazione e portando a prezzi più elevati per i consumatori. Inoltre, hanno sollevato interrogativi sulla possibilità che Microsoft e Google intendano acquisire i loro partner nell’IA, trasformando queste partnership in vere e proprie fusioni mascherate.

Google reinventa la cultura: podcast AI per riscoprire i tesori dell’umanità

Nel panorama tecnologico odierno, dove l’intelligenza artificiale sembra essere la panacea per ogni problema, Google ha deciso di applicarla anche al mondo dell’arte e della cultura. Recentemente, Google Arts & Culture ha introdotto una funzione sperimentale che utilizza Gemini, il suo modello AI, per creare “episodi audio approfonditi” su artefatti culturali selezionati. In altre parole, ora possiamo ascoltare podcast generati dall’AI che ci raccontano storie su orsi bruni e ceramiche cinesi antiche.​

Secondo il blog ufficiale di Google, questa funzione permette di apprendere, ad esempio, che l’orso bruno, tecnicamente un carnivoro, ottiene circa il 90% della sua dieta dalle piante. Oppure, possiamo seguire il viaggio della ceramica cinese antica attraverso l’Eurasia tramite l’audio. Un modo innovativo per trasformare il tempo trascorso nel traffico o sul divano in un’esplorazione culturale. ​blog.google

Gemini live: video e screensharing arrivano su Pixel 9 e Galaxy S25

C’è qualcosa di vagamente distopico ma irresistibilmente seducente nell’idea che un’intelligenza artificiale possa guardare quello che stiamo guardando e dirci in tempo reale cosa stiamo vedendo, consigliarci cosa comprare o addirittura dirci se quel pesce nell’acquario è un tetra o un guppy. Non è fantascienza, è il nuovo giocattolo di Google: Gemini Live. E adesso è ufficialmente in rollout, a partire da due flagship che sembrano nati per ospitare un futuro da Black Mirror: il Pixel 9 e il Galaxy S25.

L’annuncio arriva tra le righe, senza fanfare da keynote, ma con la fredda efficienza di un update che cambia le carte in tavola. Gemini Live, l’interfaccia “live” dell’ecosistema Gemini, ora consente non solo di attivare la videocamera e farsi assistere visivamente dall’AI, ma anche di condividere lo schermo del proprio smartphone. E il tutto con una naturalezza che nasconde un’enorme complessità infrastrutturale sotto il cofano. Basta un tap per passare da “scatto la foto al pesce” a “consigliami un nuovo outfit su Zalando”, con la stessa voce pacata e infallibile che ti aiuta a scrivere un’email o sintetizza una riunione su Meet.

VIEWS Il Grande Tradimento Digitale

Siamo entrati nell’era del “Grande Tradimento Digitale”, e questa volta non è una metafora. È un urlo collettivo che risuona da ogni angolo della rete: “Google ci ha traditi”. È il pianto amaro di editori indipendenti, gestori di blog, piccole testate giornalistiche e siti verticali di nicchia. Tutti accomunati da un destino cinico: essere stati prima nutriti, poi bruciati vivi, da un algoritmo che cambia umore più spesso di un trader sotto metanfetamina.

Google, il buon vecchio motore di ricerca, è diventato qualcosa di diverso. Ora si comporta più come un oracolo ermetico alimentato da AI, dispensando risposte pronte in stile chatbot e riducendo a macerie il traffico organico che una volta distribuiva come un re magnanimo. La partita non è più tra chi scrive meglio, chi indicizza meglio, chi ha più backlink. No. Ora il gioco è truccato. Il nuovo sfidante si chiama SGE, Search Generative Experience, ed è l’intelligenza artificiale conversazionale di Google che risponde direttamente agli utenti. Sintetizza, interpreta e cancella la necessità stessa di cliccare su un link.

Nightwhisper: Il nuovo balzo di Google nel dominio della codifica AI

Nel panorama in continua evoluzione della codifica assistita da intelligenza artificiale, il misterioso modello Nightwhisper ha suscitato l’entusiasmo della comunità tecnologica. I dettagli che trapelano suggeriscono che questo modello, che sembra essere una novità di Google, potrebbe segnare un’importante evoluzione, probabilmente in grado di superare persino i modelli già avanzati come Gemini 2.5 Pro. Le prime recensioni dei tester parlano di un sistema che gestisce attività di sviluppo software in modo superiore, aumentando le aspettative e alimentando le speculazioni su cosa potrebbe essere veramente questo nuovo strumento.

Google trasforma NotebookLM in un ricercatore automatico: addio alle fonti manuali?

Google ha appena rilasciato un aggiornamento significativo per NotebookLM, il suo strumento AI per la gestione delle note, che potrebbe cambiare radicalmente il modo in cui facciamo ricerca e prendiamo appunti. Con l’introduzione del tasto “Discover”, gli utenti non dovranno più caricare manualmente fonti come documenti o link YouTube: basterà descrivere un argomento e lasciare che l’IA faccia il lavoro sporco, scandagliando il web per raccogliere informazioni pertinenti.

Questa nuova funzione è stata lanciata mercoledì e, secondo Google, verrà resa disponibile a tutti gli utenti nel giro di una settimana. NotebookLM analizzerà centinaia di fonti in pochi secondi, restituendo un elenco di fino a dieci raccomandazioni, ognuna accompagnata da un riassunto che ne spiega la rilevanza. Gli utenti potranno quindi selezionare le fonti più adatte e importarle in NotebookLM, sfruttandole per generare FAQ, documenti di sintesi o persino panoramiche audio in stile podcast con voci AI che discutono l’argomento.

Google cambia guida su Gemini: Sissie Hsaio lascia il posto a Josh Woodward

Google continua a riorganizzare il suo reparto AI, e questa volta tocca a Sissie Hsaio, la manager che ha guidato il lancio dell’AI chatbot dell’azienda, Gemini (ex Bard). Secondo un report di Semafor, Hsaio si dimetterà dalla guida dell’app Gemini, lasciando il posto a Josh Woodward, attuale vicepresidente di Google Labs. La mossa sembra parte di un piano più ampio per ridefinire il futuro dell’intelligenza artificiale di Mountain View, con Google DeepMind che vuole “affinare il focus sulla prossima evoluzione dell’app Gemini”, come riportato nel memo interno scritto dal CEO Demis Hassabis.

Hsaio non lascia Google, almeno per ora. Dopo quasi vent’anni di carriera all’interno della compagnia, con incarichi in Search, Docs e, più recentemente, nella divisione AI, prenderà una “breve pausa” prima di tornare in una nuova posizione. Il suo successore, Josh Woodward, manterrà il suo ruolo attuale in Google Labs mentre prenderà in mano anche le redini di Gemini.

Google blinda Android: mossa difensiva o autogol nel mercato cinese?

Google ha deciso di cambiare le regole del gioco per Android, e la Cina è sul piede di guerra. Dopo anni di sviluppo open-source con aggiornamenti pubblici e costanti, Mountain View ha deciso di blindare il processo interno, rilasciando il codice solo con le major release. Ufficialmente, nulla cambierà: la promessa agli sviluppatori cinesi è che Android resterà open-source. Ma la fiducia è già incrinata, e il sospetto è che Google stia rafforzando le sue difese contro la crescente indipendenza tecnologica della Cina.

Dietro questa mossa si nasconde un dilemma strategico. Da un lato, il modello aperto ha permesso ad Android di conquistare il 71% del mercato mobile globale, dando accesso a miliardi di utenti e permettendo a produttori come Xiaomi, Oppo e Vivo di costruire i loro ecosistemi. Dall’altro, questa apertura ha favorito anche l’ascesa di Huawei, che, spinta dalle sanzioni USA, ha sviluppato HarmonyOS, ormai incompatibile con le app Android.

Google lancia Gemini 2.5 Experimental: il nuovo modello AI che vuole davvero “pensare”

Google ha presentato Gemini 2.5, la sua nuova famiglia di modelli di intelligenza artificiale che, a detta dell’azienda, è in grado di “pensare”. Un’affermazione audace, ma che segna un altro passo nella corsa all’AI sempre più avanzata.

Secondo il colosso di Mountain View, Gemini 2.5 è un modello progettato per il ragionamento avanzato, il che significa che non si limita a classificare e prevedere, ma è capace di analizzare informazioni, trarre conclusioni logiche, incorporare il contesto e le sfumature, e prendere decisioni informate. In sostanza, Google vuole far credere che la sua AI non si limita a rigurgitare dati, ma elabora risposte più intelligenti e contestualizzate.

Google trasforma il tuo smartphone in un oracolo AI: Gemini Live ora “vede” e risponde in tempo reale

Google ha iniziato il rilascio di nuove funzionalità AI per Gemini Live, consentendo all’assistente di “vedere” lo schermo dello smartphone o l’ambiente circostante attraverso la fotocamera e rispondere in tempo reale. La conferma arriva direttamente da Alex Joseph, portavoce di Google, in un’email a The Verge. Dopo quasi un anno dalla presentazione del progetto Astra, finalmente l’azienda porta sul mercato queste capacità avanzate.

L’aggiornamento è già stato avvistato da un utente su Reddit, che ha condiviso un video dimostrativo della nuova funzione di lettura dello schermo su un dispositivo Xiaomi, come riportato da 9to5Google. Questa è solo una delle due caratteristiche annunciate da Google all’inizio di marzo e destinate agli utenti del piano Google One AI Premium, che offre accesso esclusivo alle funzionalità avanzate di Gemini.

Dentro la frenesia di Google per colmare il divario con OpenAI

L’intelligenza artificiale sta vivendo una delle sue evoluzioni più frenetiche e, se c’è un’azienda che sta cercando disperatamente di non restare indietro, quella è Google. Un ampio reportage di Wired offre uno sguardo affascinante sul dietro le quinte di Google, descrivendo come l’azienda di Mountain View stia cercando di colmare il gap rispetto a OpenAI, che è riuscita a fare il botto con GPT. È come se Google fosse stato improvvisamente svegliato da un sonno profondo, dove fino a qualche tempo fa il dominio dell’AI era considerato un dato di fatto, ma il panorama stava cambiando, e non in meglio per loro.

Il primo impatto lo ha avuto Sundar Pichai, CEO di Google, che si è visto sfidato non solo da una startup sconosciuta (OpenAI), ma da un fenomeno tecnologico globale che ha catturato l’immaginazione di tutti. Pichai e i suoi collaboratori hanno dovuto affrontare non solo una sfida tecnologica, ma anche una crisi di identità. Google, un gigante della ricerca, stava rischiando di essere tagliato fuori da un campo che aveva contribuito a definire. È una situazione che ha messo in discussione anni di dominio incontrastato nei motori di ricerca, riducendo la sua leadership tecnologica a un ricordo di un’era ormai superata.

Google estende Audio Overviews a Gemini

​Google ha recentemente introdotto una funzione rivoluzionaria nella sua app Gemini: le “Audio Overviews”. Questa innovazione consente agli utenti di trasformare documenti, presentazioni e rapporti dettagliati generati dalla funzione “Deep Research” in conversazioni audio in stile podcast, animate da due host AI. ​

Lanciata inizialmente a settembre nell’app di annotazioni AI NotebookLM, la funzione Audio Overviews ha ricevuto un’accoglienza entusiastica, spingendo Google a estenderla anche agli utenti di Gemini, sia nella versione gratuita che in quella Advanced. Questa espansione permette di convertire non solo documenti e slide, ma anche i rapporti approfonditi generati da Deep Research in discussioni audio coinvolgenti.

Google svela il Pixel 9a: l’outsider che sfida l’iPhone 16e

Nel mondo della tecnologia, dove l’innovazione è spesso accompagnata da prezzi esorbitanti, Google ha deciso di rompere gli schemi presentando il suo nuovo Pixel 9a. Con un prezzo di partenza di 499€, questo dispositivo non solo mantiene il costo del suo predecessore, ma introduce anche una serie di miglioramenti che lo rendono una proposta allettante per chi cerca qualità senza svenarsi.

Il design del Pixel 9a è stato rinnovato con un modulo fotocamera piatto e un display pOLED da 6,3 pollici più luminoso, con una frequenza di aggiornamento di 120 Hz. La resistenza all’acqua è stata potenziata con una certificazione IP68, garantendo una maggiore durabilità. Ma la vera sorpresa è la batteria da 5.100 mAh, che promette oltre 30 ore di autonomia con una singola carica, un aspetto che potrebbe far riflettere molti utenti sempre in movimento.

Wiz e l’arte dell’acquisizione: come Google ha speso 32 Miliardi per diventare più sicura e ancora più gigante

Google non è mai stato timido nel mostrare il suo potere di mercato, ma l’operazione per acquisire Wiz per 32 miliardi di dollari è una delle dimostrazioni più eclatanti della sua capacità di comprare quello che gli serve. Un acquisto che, a prima vista, sembra il classico esempio di un gigante della tecnologia disposto a pagare qualsiasi cifra pur di mantenere la sua posizione dominante. Eppure, dietro questa transazione, c’è una strategia che merita una riflessione più approfondita.

Google lancia Canvas e Audio Overview: la guerra dei nomi tra AI si fa ridicola

Google ha appena rilasciato due nuove funzionalità per il suo assistente AI Gemini: Canvas e Audio Overview. Dietro l’apparente innovazione, si nasconde una battaglia surreale tra big tech, dove nomi e funzioni si sovrappongono in un gioco di specchi.

Canvas è uno spazio di lavoro interattivo, dove gli utenti possono creare e modificare documenti e codice in tempo reale con il supporto di Gemini. L’AI può generare bozze iniziali, modificare sezioni specifiche, cambiare tono e formattazione, il tutto senza dover uscire dall’ambiente. Per i programmatori, Google ha aggiunto una live preview, così da vedere immediatamente l’impatto delle modifiche sul codice.

Google punta su MediaTek per processori AI più economici: una mossa strategica o un azzardo?

Nel vasto oceano della tecnologia, dove le onde dell’innovazione si infrangono incessantemente sulle scogliere del mercato, emerge una notizia che potrebbe ridefinire gli equilibri del settore: Google avrebbe deciso di collaborare con MediaTek per l’approvvigionamento di processori AI più economici. Una scelta che, a prima vista, potrebbe sembrare dettata dalla volontà di ridurre i costi, ma che nasconde sfumature ben più complesse.

MediaTek, l’outsider che sfida i giganti

Per anni, MediaTek è stata vista come l’eterno secondo, il produttore di chip destinati a dispositivi di fascia media e bassa, lontano dai riflettori occupati da colossi come Qualcomm e Apple. Tuttavia, negli ultimi tempi, l’azienda taiwanese ha saputo risalire la china, introducendo processori che non solo competono in termini di prestazioni, ma lo fanno a costi decisamente più contenuti. Un esempio lampante è il recente Dimensity 9400, un chipset realizzato con processo a 3nm, che promette un’efficienza energetica superiore del 40% rispetto al suo predecessore, il 9300. Questo processore integra una CPU con un core Arm Cortex-X925 a 3,62GHz, tre core Cortex-X4 e quattro core Cortex-A720, offrendo un incremento del 35% nelle prestazioni single-core e del 28% in quelle multi-core. Non solo: la GPU Arm Immortalis-G925 a 12 core garantisce un ray tracing più veloce del 40%, mentre l’ottava generazione della NPU di MediaTek supporta l’addestramento di modelli AI leggeri direttamente sul dispositivo, migliorando le performance dei modelli linguistici di grandi dimensioni dell’80%.

Gemini 2.0 Flash Thinking – AI personalizzata grazie alla ricerca

Google sta ridefinendo il panorama dell’intelligenza artificiale integrando il suo più grande vantaggio competitivo: la ricerca. Con il crescente numero di chatbot AI lanciati da varie aziende, Google sta sfruttando il suo motore di ricerca per rendere Gemini un assistente davvero personalizzato e intelligente. Ora, attivando la funzione di personalizzazione, Gemini può analizzare automaticamente le query e valutare se fare riferimento alla cronologia di ricerca dell’utente per migliorare la qualità delle risposte.

Questa funzionalità è alimentata dal modello sperimentale Gemini 2.0 Flash Thinking, un’innovazione progettata per rendere le risposte dell’AI più contestuali e pertinenti. Se un utente chiede consigli su ristoranti o viaggi, ad esempio, Gemini potrà consultare le ricerche recenti legate al cibo o alle destinazioni turistiche per offrire suggerimenti più mirati. Tuttavia, l’integrazione della cronologia di ricerca è opzionale e può essere disattivata in qualsiasi momento.

Pagina 1 di 6

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie