Google ha deciso di portarci un passo più vicini al futuro, o forse ci sta solo preparando a un piccolo “game changer” per l’ennesimo esperimento, perché, ammettiamolo, l’azienda che ha visto crescere a dismisura la sua galassia di AI non sembra mai sazia. Il modello di “ragionamento” sperimentale di Gemini 2.0, capace di spiegare come giunge alle sue risposte per domande complesse, arriva oggi nell’app Gemini, sotto il nome di Flash Thinking. È l’ennesima aggiunta all’ormai infinita gamma di roll-out legati a Gemini 2.0 che Google ha annunciato con il piglio di chi ha un budget di 75 miliardi di dollari da investire in cose che, a quanto pare, chiamano AI. E sappiamo tutti quanto ai giganti della tecnologia piacciano le cifre rotonde e le promesse a cinque zeri.

Con il salto da 32,3 miliardi di dollari spesi per investimenti in capitale nel 2023 ai 75 miliardi previsti per quest’anno, la concorrenza sembra essere la vera preoccupazione di Google. Chi? Beh, OpenAI, Microsoft, Meta, Anthropic e compagnia bella. Il tutto mentre i poveri sviluppatori si trovano a dover domare l’ennesimo modello di AI che, secondo Google, dovrebbe risolvere problemi con un grado di precisione talmente alto da farci venire il dubbio che stiano per sostituirci.

Il Flash Thinking di Gemini 2.0 sarà disponibile oggi stesso per gli utenti di desktop e mobile. Finalmente, una novità che potrebbe far sentire meno soli gli sviluppatori di app e chi ha bisogno di un AI che non solo risponde alle domande, ma ha anche il coraggio di spiegare come ci arriva, proprio come il collega che sa sempre cosa dire durante una riunione, senza però mai dire niente. Se tutto questo vi suona familiare, è perché Google sembra davvero intenzionata a “ragionare” un po’ più lentamente, ma con l’illusione di avere la risposta giusta – più lentamente per riflettere meglio e, si spera, con maggiore precisione.

In un colpo solo, Google sta cercando di mettere a confronto il suo Flash Thinking con altri modelli di AI da ragionamento come OpenAI o DeepSeek. E come tutte le buone promesse dell’AI, ci dicono che il risultato finale sarà più preciso, più intelligente e, per qualche ragione, più veloce. Peccato che, come sempre accade, i modelli che “pensano” prima di rispondere non siano proprio il massimo per chi ha fretta. Ma chi ha tempo per risposte immediate, giusto?

Ma non è finita qui. In un gesto che sembra volerci dire “siamo noi i più forti”, Google ha anche annunciato una versione sperimentale di Gemini 2.0 Pro. Non è chiaro cosa ci riservi, ma dovrebbe essere migliore per tutto, dalla codifica alla matematica. La versione Pro, descritta come “il modello più potente mai creato da Google”, promette di battere qualsiasi concorrente, anche se non è chiaro come. Lo vedremo solo quando i fortunati che avranno accesso a Vertex AI e AI Studio cominceranno a testarlo. Nel frattempo, però, Google è chiara nel voler dominare il mondo dell’intelligenza artificiale con una velocità da Formula 1… a tempo debito.

Nel frattempo, non dimentichiamoci del piccolo ma importante modello 2.0 Flash-Lite. Questo gioiellino low-cost dovrebbe combinare il meglio di Gemini 1.5 Flash con un nuovo miglioramento delle prestazioni, ma a un prezzo più basso. Dove l’AI è troppo costosa, Google si fa trovare pronta con una versione economica, che sembra essere la risposta per gli sviluppatori che vogliono “accontentarsi” di una performance inferiore a quella Pro, ma pur sempre con una marcia in più rispetto al passato. Il modello 2.0 Flash-Lite è già disponibile in anteprima pubblica su Google AI Studio e Vertex AI, che, se non altro, rende i nostri portafogli un po’ più leggeri.

Se siete già pronti ad affrontare la prossima evoluzione dell’AI, il futuro è servito. Magari un po’ più lentamente di quanto pensavate, ma comunque con stile.