Negli ultimi mesi, un gruppo di quasi 200 dipendenti di DeepMind, la divisione di ricerca sull’intelligenza artificiale di Google, ha firmato una lettera interna in cui si chiede all’azienda di terminare i contratti con organizzazioni militari. Questa lettera, datata 16 maggio 2024, esprime preoccupazioni riguardo all’uso della tecnologia AI di DeepMind per scopi bellici, ritenendo che ciò possa violare i principi etici dichiarati da Google.
Contenuti Chiave della Lettera
- Preoccupazioni Etiche: I firmatari affermano che qualsiasi coinvolgimento con la produzione di armi e con le forze militari compromette la posizione di Google come leader nell’AI etica e responsabile, andando contro la propria missione e i principi di intelligenza artificiale dichiarati.
- Progetti Contestati: La lettera fa riferimento specifico al contratto di Google con l’esercito israeliano, noto come Project Nimbus, e alle segnalazioni riguardanti l’uso dell’AI per la sorveglianza di massa e la selezione di obiettivi in Gaza. Sebbene non si concentri su un conflitto specifico, i firmatari sottolineano che le loro preoccupazioni riguardano l’impatto etico e sociale dell’AI in contesti militari.
- Richieste Specifiche: I dipendenti chiedono un’indagine sulle affermazioni riguardanti l’uso dei servizi cloud di Google da parte dell’esercito, la cessazione dell’accesso della tecnologia di DeepMind a scopi militari e la creazione di un nuovo organo di governance per prevenire future applicazioni militari della tecnologia.
- Rappresentanza: I firmatari rappresentano circa il 5% della forza lavoro di DeepMind.
Nonostante le richieste contenute nella lettera, Google non ha adottato misure sostanziali in risposta a queste preoccupazioni fino ad agosto 2024. L’azienda sostiene di rispettare i propri principi di intelligenza artificiale quando rende le tecnologie disponibili ai clienti.
Questa dissidenza interna segue proteste precedenti contro il Project Nimbus all’inizio dell’anno, che hanno portato Google a licenziare decine di dipendenti. La rapida diffusione dell’AI in contesti bellici ha spinto alcuni sviluppatori tecnologici a esprimere preoccupazioni, nonostante Google avesse promesso che l’AI di DeepMind non sarebbe mai stata utilizzata per scopi militari al momento dell’acquisizione della società nel 2014.
Le preoccupazioni etiche sollevate dai lavoratori di DeepMind evidenziano un crescente dibattito sull’uso dell’intelligenza artificiale in ambito militare e sulle responsabilità delle aziende tecnologiche nel garantire che le loro innovazioni non vengano utilizzate per causare danni. Questo caso rappresenta un esempio significativo di come i dipendenti possano influenzare le politiche aziendali, specialmente in un settore così delicato come quello della tecnologia militare.