“Riteniamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un’IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale”.

Google Post.

Google ha modificato la propria politica sull’intelligenza artificiale, eliminando un divieto esplicito sull’uso delle sue tecnologie per armamenti e sorveglianza. Questa decisione, avvenuta sei anni dopo l’adozione di rigide restrizioni, segna un significativo cambio di direzione e si inserisce in un più ampio contesto di ridefinizione dell’etica dell’IA da parte delle big tech. Anche OpenAI, nel corso dell’ultimo anno, ha adottato una revisione simile, segnalando un trend in crescita nel settore.

La nuova politica di Google afferma che l’azienda impiegherà l’IA in modo responsabile, garantendo “un’adeguata supervisione umana, la dovuta diligenza e meccanismi di feedback per allinearsi agli obiettivi degli utenti, alla responsabilità sociale e ai principi ampiamente accettati del diritto internazionale e dei diritti umani”. Tuttavia, la rimozione del divieto esplicito sull’uso bellico e di sorveglianza solleva interrogativi sul livello di controllo che Google eserciterà effettivamente sui propri strumenti e sulle applicazioni sviluppate da governi o aziende partner.

Il vicepresidente senior della ricerca di Google, James Manyika, e il capo della divisione IA, Demis Hassabis, hanno sottolineato in un comunicato che le democrazie devono guidare lo sviluppo dell’intelligenza artificiale, basandosi su valori come libertà, uguaglianza e rispetto dei diritti umani. Secondo i dirigenti, la collaborazione tra aziende, governi e organizzazioni che condividono questi principi è essenziale per garantire che l’IA contribuisca alla sicurezza nazionale, alla protezione delle persone e alla crescita economica globale. Tuttavia, non hanno affrontato direttamente il tema della rimozione delle restrizioni sulle applicazioni militari.

Il cambiamento di politica arriva in un momento di tensione tra Google e i suoi dipendenti, in particolare per la vendita di servizi di cloud computing all’esercito israeliano. Secondo il Washington Post, Google avrebbe fornito tecnologie IA al Ministero della Difesa israeliano e alle Forze di Difesa israeliane, contribuendo a strumenti di analisi avanzata nel contesto del conflitto in Medio Oriente. Questa collaborazione ha suscitato proteste interne da parte dei dipendenti, alcuni dei quali hanno denunciato la mancanza di trasparenza e il rischio di un coinvolgimento indiretto dell’azienda in operazioni militari.

Questa decisione segna un punto di svolta nel rapporto tra le grandi aziende tecnologiche e il settore della difesa. Se da un lato le imprese giustificano questi cambiamenti con la necessità di mantenere un vantaggio strategico nei confronti di potenze concorrenti, dall’altro cresce il dibattito sulla necessità di regolamentare più rigidamente l’uso dell’IA in ambito militare e di sicurezza. La sfida per il futuro sarà trovare un equilibrio tra innovazione tecnologica, interessi geopolitici e tutela dei diritti umani.