Nel panorama dell’intelligenza artificiale, OpenAI e altre aziende del settore stanno affrontando nuove sfide e incertezze mentre cercano di superare le aspettative di crescita dei modelli di linguaggio di grandi dimensioni. Nonostante l’enorme successo dei chatbot come ChatGPT, gli esperti del settore si stanno rendendo conto che le tecniche tradizionali di scalabilità, che si basano sull’aumento della potenza computazionale e dei dati, potrebbero non essere più sufficienti per raggiungere i traguardi desiderati. La ricerca si sta ora orientando verso approcci che riflettono il “pensiero” umano, in grado di pensare, ragionare e prendere decisioni in modo simile a come farebbe una persona.
Tag: Ilya Sutskever
Nella penombra di un elegante loft di Manhattan, circondato da libri e vecchie macchine da scrivere, un uomo rifletteva sui pericoli dell’intelligenza artificiale. Non era uno scienziato pazzo, ma Ilya Sutskever, uno dei padri spirituali dei moderni modelli linguistici. Guardava il tramonto oltre le finestre e pensava a come i suoi algoritmi, nati per rispondere a domande semplici, si fossero trasformati in divinità digitali affamate di energia.
Safe Superintelligence (SSI), una startup di intelligenza artificiale co-fondata da Ilya Sutskever, ex capo scienziato di OpenAI, ha raccolto con successo 1 miliardo di dollari in finanziamenti. Questo investimento valuta l’azienda a oltre 5 miliardi di dollari, come riportato da diverse fonti, tra cui Reuters e TechCrunch.
Il co-fondatore di OpenAI ed ex capo scienziato sta avviando una nuova società di intelligenza artificiale chiamata Safe Superintelligence Inc, focalizzata sulla creazione di un sistema di intelligenza artificiale avanzato e sicuro che sia più intelligente degli esseri umani.
Secondo le ultime notizie, Ilya Sutskever, cofondatore e capo scienziato di OpenAI, lascerà l’azienda dopo quasi un decennio. Sarà sostituito dal direttore della ricerca Jakub Pachocki.