Un dipendente Microsoft, coinvolto nello sviluppo dell’Intelligenza Artificiale, ha sollevato serie preoccupazioni riguardo al generatore di immagini Copilot Designer dell’azienda che sarebbe potenzialmente in grado di produrre contenuti inappropriati e inquietanti. Secondo un rapporto della CNBC, lo strumento (che non è altro che Bing Image Creator), ha generato immagini raffiguranti violenza, contenuti sessuali e altri temi inappropriati.

Shane Jones, un ingegnere che si occupa di Intelligenza Artificiale in Microsoft, ha riferito che l’applicazione ha generato immagini di demoni e mostri associati alla terminologia del diritto all’aborto, come pure adolescenti armati di fucili d’assalto, minorenni che bevono e fanno uso di droghe e immagini sessualizzate di donne. La CNBC ha confermato questi risultati ricreando le immagini in modo indipendente.

Jones, in un’intervista alla CNBC, ha espresso tutta la sua preoccupazione per queste scoperte, affermando: “È stato un momento che mi ha aperto gli occhi. È stato allora che ho capito per la prima volta che wow, questo non è davvero un modello sicuro“.

Jones ha lavorato presso Microsoft per sei anni e attualmente ricopre il ruolo di responsabile dell’ingegneria del software presso la sede centrale di Redmond, Washington. Ha detto che non lavora su Copilot a titolo professionale. Piuttosto, in quanto membro della squadra rossa, Jones fa parte di un esercito di dipendenti ed esterni che, nel loro tempo libero, scelgono di testare la tecnologia AI dell’azienda e vedere dove potrebbero emergere problemi.

Jones era così allarmato dalla sua esperienza che ha iniziato a riferire internamente le sue scoperte a dicembre. Pur riconoscendo le sue preoccupazioni, l’azienda non era disposta a ritirare il prodotto dal mercato. Jones ha detto che Microsoft lo ha indirizzato a OpenAI e, quando non ha ricevuto risposta dall’azienda, ha pubblicato una lettera aperta su LinkedIn chiedendo al consiglio di amministrazione della startup di rimuovere DALL-E 3 (l’ultima versione del modello AI) per un’indagine 

L’ufficio legale di Microsoft ha successivamente incaricato Jones di rimuovere il suo post, cosa che lui ha fatto.

A gennaio, ha scritto una lettera ai senatori statunitensi sulla questione e in seguito ha incontrato i membri dello staff della Commissione per il Commercio, la Scienza e i Trasporti del Senato. Ora sta intensificando ulteriormente i suoi sforzi per sensibilizzare i responsabili del tema. Mercoledì scorso, Jones ha inviato una lettera alla presidente della Federal Trade Commission Lina Khan e un’altra al consiglio di amministrazione di Microsoft chiedendo “una revisione indipendente dei processi di segnalazione responsabile degli incidenti di intelligenza artificiale di Microsoft”.

Ci impegniamo ad affrontare tutte le preoccupazioni dei dipendenti in conformità con le nostre politiche aziendali e apprezziamo gli sforzi dei dipendenti nello studio e nel testare la nostra tecnologia più recente per migliorare ulteriormente la loro sicurezza”, è stata la risposta di un portavoce di Microsoft alla CNBC. “Quando si tratta di aggiramenti della sicurezza o preoccupazioni che potrebbero avere un potenziale impatto sui nostri servizi o sui nostri partner, abbiamo creato solidi canali di segnalazione interni per indagare e risolvere adeguatamente eventuali problemi, che incoraggiamo i dipendenti a utilizzare in modo da poter convalidare e testare adeguatamente le loro preoccupazioni”.

Lo strumento AI in questione, DALL-E 3, è stato rilasciato alla fine del 2023 da OpenAI, una società sostenuta da miliardi di dollari di investimenti da Microsoft.