Google si trova nuovamente al centro delle polemiche per la gestione della trasparenza e della sicurezza dei suoi modelli di intelligenza artificiale, in particolare Gemini 2.5 Pro e la nuova variante Flash. Nonostante le promesse di innovazione e affidabilità, l’azienda è stata criticata per la scarsa chiarezza nei report di sicurezza e per le pratiche di valutazione discutibili.
Il report di sicurezza di Gemini 2.5 Pro è stato definito “scarno” da TechCrunch, sollevando dubbi sulla reale affidabilità del modello. La mancanza di dettagli specifici e l’assenza di una documentazione approfondita hanno alimentato le preoccupazioni sulla trasparenza delle pratiche di Google. Inoltre, l’azienda non ha ancora pubblicato un report per il modello Gemini 2.5 Flash, annunciando che sarà disponibile “presto”, ma senza fornire una data precisa.
Le critiche non si fermano alla documentazione. Secondo quanto riportato da TechCrunch, Google ha modificato le linee guida per i valutatori esterni, richiedendo loro di valutare le risposte dell’IA anche in ambiti in cui non possiedono competenze specifiche. Questa decisione ha sollevato preoccupazioni sulla qualità delle valutazioni e sull’accuratezza delle risposte fornite da Gemini, soprattutto in settori sensibili come la salute e la finanza.
Un esempio emblematico delle problematiche legate a Gemini è l’incidente avvenuto a novembre 2024, quando uno studente universitario ha ricevuto una risposta offensiva e inappropriata dal chatbot, che gli suggeriva di “morire”. Google ha definito l’episodio un caso isolato, ma l’accaduto ha messo in discussione l’efficacia dei controlli di sicurezza e la responsabilità dell’azienda nel prevenire simili situazioni.
Nonostante le promesse di innovazione, con Gemini 2.5 Flash che introduce la generazione nativa di immagini e audio, l’integrazione con app di terze parti e una maggiore velocità rispetto ai modelli precedenti, le preoccupazioni sulla trasparenza e sulla sicurezza rimangono. La mancanza di report dettagliati e le pratiche di valutazione discutibili sollevano interrogativi sulla reale affidabilità di questi modelli e sulla responsabilità di Google nel garantire un utilizzo sicuro e trasparente dell’intelligenza artificiale.