SIGGRAPH 2024 si svolgera’ dal 30 luglio al 1 agosto 2024 presso il Colorado Convention Center di Denver. Questa conferenza è considerata la più importante esposizione su computer grafica e tecniche interattive, celebrando 50 anni di innovazione nel settore. Durante l’evento, i partecipanti esploreranno i progressi in vari ambiti, tra cui arte digitale, animazione, effetti visivi, realtà mista e intelligenza artificiale.

Un momento saliente della conferenza e’ stato il dialogo tra Jensen Huang, CEO di Nvidia, e Mark Zuckerberg, CEO di Meta, che hanno discusso il futuro dell’IA e delle simulazioni grafiche. Altri relatori di spicco includono Dava Newman del MIT Media Lab e Mark Sagar di Soul Machines, che hanno parlato delle intersezioni tra bioingegneria, design e umani digitali.

Huang e Lauren Goode, una scrittrice senior di WIRED ha chiacchierato di come l’accelerated computing e l’AI generativa stiano influenzando vari settori. (Video in fondo all articolo).

Il CEO di Meta, Mark Zuckerberg, ha presentato la sua visione di occhiali per realtà aumentata durante una discussione con il CEO di Nvidia, Jensen Huang, alla conferenza SIGGRAPH 2024 di Denver. Vuole creare una linea di occhiali AR a prezzi variabili basati sulle funzionalità offerte. Questi occhiali avranno assistenti AI integrati e offriranno molte capacità, mantenendo un design elegante.

“Non siamo riusciti a infilare tutta la tecnologia nei Ray-Ban che avevamo”, ha detto Zuckerberg. “Ci stiamo avvicinando, potrebbero volerci due o tre anni. Vogliamo che siano fantastici”.

“Avremo l’assistente Meta AI, ma vogliamo che i nostri clienti creino i propri agenti”, ha detto Zuckerberg. “Lo chiamiamo AI Studio, è un set di strumenti che consente a ogni utente di creare una versione AI di se stesso. C’è solo un certo tempo al giorno. Non possiamo sempre interagire con tutti quelli di cui abbiamo bisogno ogni giorno. Ma possiamo creare un agente basato su noi stessi che può interagire con le persone”.

“L’IA di oggi è a turni”, ha aggiunto Huang. “Le dai un input e ti risponde. In futuro, l’IA sarà in grado di pianificare”.

“Uno degli usi interessanti che abbiamo visto è l’uso di modelli di intelligenza artificiale per il supporto”, ha detto Zuckerberg. “Vediamo molte persone usare Meta AI per interpretare situazioni difficili. Come chiedere una promozione a un capo, questo crea una zona libera da giudizi per interpretare questo tipo di situazioni”.

Ha aggiunto che Facebook e Instagram continueranno a implementare altre funzionalità di intelligenza artificiale man mano che la tecnologia si sviluppa.

Il CEO di Nvidia Jensen Huang ha presentato in anteprima quella che considera la prossima ondata di intelligenza artificiale generativa, l’intelligenza artificiale fisica, alla conferenza SIGGRAPH di Denver di lunedì.

“La prima ondata è stata l’accelerated computing, che riduce la quantità di energia utilizzata”, ha affermato Huang. “La successiva ondata di AI è stata l’enterprise – customer service. Vogliamo dare a ogni organizzazione la possibilità di creare la propria AI”.

“La prossima ondata è l’IA fisica”, ha aggiunto. “Richiede tre computer. Un computer per creare l’IA, un altro per inviare comandi a un robot e un terzo computer per gestire il tutto”.

“Stiamo entrando nell’era dei robot umanoidi alimentati dall’intelligenza artificiale”, ha affermato una voce durante una presentazione video sull’intelligenza artificiale fisica.

Nvidia ha spiegato come sta accelerando lo sviluppo della robotica umanoide alla conferenza. Le novità includono microservizi e framework NVIDIA NIM e OSMO NIM per eseguire carichi di lavoro di robotica multi-fase. Il microservizio MimicGen NIM “crea dati di movimento sintetici basati su dati teleoperati registrati da dispositivi come AppleVision Pro”, secondo Nvidia. “Il microservizio Robocasa NIM crea attività robotiche e ambienti pronti per la simulazione in OpenUSD, un framework universale per lo sviluppo e la collaborazione in mondi 3D”.

Nvidia ha annunciato che alcuni microservizi sono ora in anteprima, con altri in arrivo presto. Huang ha anche presentato un agente del servizio clienti basato su intelligenza artificiale. Questo agente dispone delle conoscenze degli agenti umani e interagisce visivamente con i clienti, adattando persino le espressioni facciali al tono della conversazione.

Lauren Goode, giornalista senior di WIRED, ha sollevato dubbi sull’etica di usare un agente del servizio clienti con intelligenza artificiale che sembra una persona reale.

“È ancora piuttosto robotico, e non è una cosa terribile”, ha risposto Huang. “Abbiamo reso questa tecnologia umana digitale realistica, ma sappiamo ancora che è un robot… Questo potrebbe aiutare qualcuno che è solo, anziano. Avere qualcuno molto più umano di una casella di testo è una buona cosa”.

Huang ha dipinto l’immagine di un mondo in cui le persone in tutti i tipi di settori hanno le loro IA personali che hanno imparato ad agire e rispondere in modo simile al loro tutor umano. Huang ha detto che immagina di creare una versione IA di se stesso basata su una raccolta di tutto ciò che ha detto o scritto che potrebbe generare risposte quasi identiche alle sue.

Vorrebbe che ogni dipendente della sua azienda avesse il proprio assistente AI.

“Gli ultimi progetti di Nvidia non sarebbero possibili senza l’IA”, ha detto Huang. “Senza l’IA non ci sarebbero un Hopper o un Blackwell. Il concetto è per IA digitali che saranno in grado di aumentare ogni singolo lavoro in azienda”.

“Qui inventiamo strumenti”, ha aggiunto. “Creiamo strumenti per fare un lavoro più grande e migliore, per fare cose che prima non potevamo fare”.

Huang e Lauren Goode, una scrittrice senior 
di WIRED, ha tenuto una chiacchierata informale alle 16:30 EDT per discutere di come l’accelerated computing e l’AI generativa stiano influenzando vari settori. (transcript in allegato)