Jan Leike, ex capo delle iniziative di allineamento di OpenAI, ha spiegato su Twitter (ora X) perché ha lasciato l’azienda martedì. Nel thread, Leike ha citato la mancanza di risorse e attenzione alla sicurezza come motivi delle sue dimissioni dal produttore di ChatGPT.

E’ importante sapere che Il team di allineamento o superallineamento di OpenAI  è responsabile della sicurezza e della creazione di modelli di intelligenza artificiale più incentrati sull’uomo.

La partenza di Leike rappresenta il terzo abbandono di un membro di spicco del team di OpenAI da febbraio.

Martedì, anche il cofondatore ed ex capo scienziato di OpenAI, Ilya Sutskever, ha annunciato la sua decisione di lasciare l’azienda.

Da mesi, Sutskever non faceva più parte del consiglio di amministrazione di OpenAI. Prima di unirsi a OpenAI, aveva acquisito esperienza presso Google Brain, una delle divisioni di Big G specializzate in intelligenza artificiale.

Con un dottorato in informatica conseguito presso l’Università di Toronto, ha lavorato al fianco di Geoffrey Hinton, considerato il padrino dell’AI.

“Allontanarsi da questo lavoro è stata una delle cose più difficili che abbia mai fatto”, “Perché dobbiamo urgentemente capire come guidare e controllare i sistemi di intelligenza artificiale in modo molto più intelligente di noi”.

Leike.

Leike ha dichiarato che, sebbene pensasse che OpenAI sarebbe stato il posto migliore per fare ricerca sull’intelligenza artificiale, non sempre era d’accordo con la leadership dell’azienda.

“Costruire macchine più intelligenti di quelle umane è un’impresa intrinsecamente pericolosa”, “Ma negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti”.


Notando i pericoli dell’intelligenza generale artificiale (AGI), Leike ha aggiunto che OpenAI ha una “enorme responsabilità”, ma ha affermato che la società è più concentrata sul raggiungimento dell’AGI e non sulla sicurezza, sottolineando che il suo team “ha navigato controvento” e ha lottato per le risorse informatiche.

‘La singolarità tecnologica è il momento ipotetico nel quale saranno possibili intelligenze artificiali in grado di modificarsi David Orban – Singolarità, con che velocità arriverà il futuro (Hoepli) . Oltre a ciò, possiede la capacità di autoapprendimento e può affrontare problemi per i quali non è stata specificamente addestrata.

Ricordiamo che questo lunedì, OpenAI ha rivelato diversi nuovi aggiornamenti al suo prodotto di punta dell’intelligenza artificiale generativa , ChatGPT, incluso il modello GPT-4O più veloce e intelligente. Secondo Leike, il suo ex team di OpenAI sta lavorando su diversi progetti relativi a modelli di intelligenza artificiale più intelligenti.

Prima di lavorare per OpenAI, Leike ha lavorato come ricercatrice di allineamento presso Google DeepMind.

“È stato un viaggio davvero selvaggio negli ultimi 3 anni”, “Il mio team ha lanciato il primo LLM [Apprendimento per rinforzo dal feedback umano] con InstructGPT, ha pubblicato la prima supervisione scalabile sugli LLM e [e] ha aperto la strada all’interpretabilità automatizzata e alla generalizzazione da debole a forte. Presto usciranno cose più interessanti.

Leike.

Secondo Leike, è tempo di avviare un serio dibattito sulle implicazioni del raggiungimento dell’AGI.

“Dobbiamo dare la priorità alla preparazione per loro nel miglior modo possibile”, . “Solo allora potremo garantire che l’AGI porti benefici a tutta l’umanità”.

Leike

Sebbene Leike non abbia menzionato alcun piano nel thread, ha incoraggiato OpenAI a prepararsi per quando l’AGI diventerà realtà.

“Impara a sentire l’AGI”, “Agisci con la gravità appropriata per ciò che stai costruendo. Credo che tu possa “trasmettere” il cambiamento culturale necessario”.

Leike


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!