Pochi giorni dopo che OpenAI ha annunciato la creazione del suo nuovo Comitato per la Sicurezza, gli ex membri del consiglio Helen Toner e Tasha McCauley hanno accusato il CEO Sam Altman di mettere i profitti davanti allo sviluppo responsabile dell’IA, nascondendo sviluppi chiave al consiglio e coltivando un ambiente di lavoro tossico.

Tuttavia, gli attuali membri del consiglio di OpenAI Bret Taylor e Larry Summers hanno difeso Altman, contestando le accuse e affermando che Toner e McCauley stanno cercando di riaprire questioni già risolte. Il dibattito si è svolto in editoriali pubblicati su The Economist.

Gli ex membri del consiglio hanno lanciato il primo attacco, sostenendo che il consiglio di OpenAI non era in grado di controllare il suo amministratore delegato.

“Lo scorso novembre, nel tentativo di salvare questa struttura di autoregolamentazione, il consiglio di OpenAI ha licenziato il suo CEO,”

Toner e McCauley il 26 maggio.

“Dato il dovere del consiglio di fornire supervisione indipendente e proteggere la missione di interesse pubblico della compagnia, sosteniamo l’azione del consiglio.”

Nella loro risposta, Bret Taylor e Larry Summers—che si sono uniti a OpenAI dopo la partenza di Toner e McCauley—hanno difeso Altman, respingendo le loro affermazioni e affermando il suo impegno per la sicurezza e la governance.

“Non accettiamo le affermazioni fatte dalla signora Toner e dalla signora McCauley riguardo agli eventi in OpenAI,” “Ci dispiace che la signora Toner continui a rivedere questioni che sono state esaminate a fondo dalla revisione guidata da WilmerHale.”

Dopo il rilascio del suo ultimo modello di IA, i dirigenti di spicco Ilya Sutskever e Jan Leike hanno annunciato la loro partenza dalla compagnia. Insieme all’uscita di Andrej Karpathy a febbraio, sembra che coloro più impegnati nello sviluppo di IA sicura e centrata sull’uomo abbiano lasciato.

Sebbene Toner e McCauley non abbiano menzionato il nuovo Comitato per la Sicurezza e la Sicurezza nella loro lettera, hanno ribadito preoccupazioni che OpenAI non potesse effettivamente autoregolarsi e controllare il suo CEO.

“In base alla nostra esperienza, crediamo che l’autogoverno non possa resistere affidabilmente alla pressione degli incentivi di profitto,” “Gli sviluppi dalla sua riammissione—compresa la sua reintegrazione nel consiglio e la partenza di talenti senior focalizzati sulla sicurezza—sono di cattivo auspicio per l’esperimento di autoregolamentazione di OpenAI.”

Toner e McCauley

Gli ex membri del consiglio hanno citato “modelli di comportamento di lunga data” da parte di Altman che hanno lasciato il consiglio incapace di supervisionare “decisioni chiave e protocolli di sicurezza interni.”

Gli attuali colleghi di Altman hanno fatto riferimento a una revisione indipendente del conflitto commissionata dalla compagnia.

“I risultati della revisione hanno respinto l’idea che qualsiasi tipo di preoccupazione sulla sicurezza dell’IA richiedesse la sostituzione del signor Altman,”

WilmerHale ha scoperto che la decisione del consiglio precedente non derivava da preoccupazioni riguardanti la sicurezza o la sicurezza del prodotto, il ritmo dello sviluppo, le finanze di OpenAI o le sue dichiarazioni agli investitori, ai clienti o ai partner commerciali.”

OpenAI ha svelato un nuovo “Comitato per la Sicurezza e la Sicurezza” per garantire che i suoi sistemi di IA all’avanguardia siano progettati e costruiti in modo sicuro e protetto.

Il CEO della compagnia, Sam Altman, è tra i leader del comitato, anche se la direzione generale di OpenAI è sempre più sotto scrutinio. Più preoccupante, Toner e McCauley hanno anche accusato Altman di favorire una cultura aziendale tossica.

“Molti leader senior hanno condiviso privatamente gravi preoccupazioni con il consiglio, dicendo di ritenere che il signor Altman coltivasse ‘una cultura tossica di menzogne’ e si impegnasse in ‘comportamenti [che] possono essere caratterizzati come abuso psicologico.’”

Taylor e Summers hanno confutato le loro affermazioni, affermando che Altman è tenuto in alta considerazione dai suoi dipendenti.

“In sei mesi di contatto quasi quotidiano con la compagnia, abbiamo trovato il signor Altman molto disponibile su tutte le questioni rilevanti e costantemente collegiale con il suo team di gestione,”

Taylor e Summers

Hanno anche notato l’impegno di Altman a lavorare con il governo per mitigare i rischi dello sviluppo dell’IA. Il Dipartimento della Sicurezza Interna degli Stati Uniti (DHS) ha reclutato un ampio numero di leader del settore dell’IA per stabilire il Consiglio per la Sicurezza e la Sicurezza dell’Intelligenza Artificiale, che giocherà un ruolo cruciale nel sfruttare l’IA per proteggere le infrastrutture vitali degli Stati Uniti e mitigare le minacce alimentate dall’IA.

“L’intelligenza artificiale è una tecnologia trasformativa che può avanzare i nostri interessi nazionali in modi senza precedenti”

Il dibattito pubblico avviene durante un periodo turbolento per OpenAI iniziato con la breve estromissione di Altman. Recentemente, il suo ex capo dell’allineamento si è unito alla compagnia rivale Anthropic dopo aver fatto accuse simili contro Altman.

La compagnia ha dovuto ritirare un modello vocale che somigliava molto alla voce dell’attrice Scarlett Johansson dopo non aver ottenuto il suo consenso. Ha smantellato il suo team di superallineamento, ed è stato rivelato che accordi di non divulgazione abusivi impedivano agli ex dipendenti di criticare la compagnia.

OpenAI ha anche assicurato accordi con il Dipartimento della Difesa per utilizzare la tecnologia GPT per applicazioni militari.

Il principale investitore di OpenAI, Microsoft, ha riferito di aver fatto accordi simili riguardanti ChatGPT.

Le affermazioni condivise da Toner e McCauley sono in linea con le dichiarazioni di ex ricercatori di OpenAI che hanno lasciato la compagnia.

“negli ultimi anni, la cultura della sicurezza e i processi [in OpenAI] sono stati messi da parte a favore di prodotti attraenti” e che il suo team di allineamento stava “navigando controvento.”

Jan Leike

Taylor e Summers hanno parzialmente affrontato queste preoccupazioni nella loro colonna citando il nuovo comitato per la sicurezza e la sua responsabilità “di fare raccomandazioni al consiglio completo su questioni relative a decisioni critiche di sicurezza e sicurezza per tutti i progetti di OpenAI.

Negli ultimi tempi, Toner ha intensificato le sue accuse sulla scarsa trasparenza di Altman.

“Per dare un’idea di cosa stiamo parlando, quando ChatGPT è uscito nel novembre 2022, il consiglio non è stato informato in anticipo”, ha rivelato nel podcast The TED AI Show all’inizio di questa settimana. “Abbiamo appreso di ChatGPT su Twitter.”

Ha inoltre dichiarato che il consiglio di amministrazione di OpenAI ignorava che Altman possedesse l’OpenAI Startup Fund, nonostante Altman avesse affermato di non avere interessi finanziari in OpenAI. Il fondo ha investito milioni raccolti da partner come Microsoft in altre attività, senza che il consiglio ne fosse a conoscenza. La proprietà del fondo da parte di Altman è cessata ad aprile.

Quando ci sono ingenti somme di denaro in gioco, è comune osservare che gli esseri umani possano mostrare il peggio di sé, specialmente nel contesto del mondo tecnologico.

Questi comportamenti negativi sono spesso alimentati dalla pressione per ottenere guadagni finanziari rapidi e dalla mancanza di regolamentazioni adeguate che possano prevenire tali abusi.

Tuttavia, è importante notare che il settore tecnologico può anche portare enormi benefici alla società, come l’innovazione, la creazione di posti di lavoro e il miglioramento della qualità della vita. L’obiettivo dovrebbe essere trovare un equilibrio che massimizzi i benefici minimizzando i danni.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!