Ripensando all’evento AWS re:Invent 2023, Jensen Huang, fondatore e CEO di NVIDIA, ha parlato sul palco con il CEO di AWS Adam Selipsky. Hanno discusso di come NVIDIA e AWS stiano collaborando per permettere a milioni di sviluppatori di accedere a tecnologie avanzate per innovare rapidamente con l’intelligenza artificiale generativa.
AWS e NVIDIA hanno rafforzato la loro collaborazione al GTC 2024. I CEO delle due aziende hanno discusso la loro partnership e l’evoluzione dell’intelligenza artificiale in un comunicato stampa:
“La profonda collaborazione tra le nostre due organizzazioni risale a più di 13 anni fa, quando insieme abbiamo lanciato la prima istanza cloud GPU al mondo su AWS, e oggi offriamo la più ampia gamma di soluzioni GPU NVIDIA per i clienti”, afferma Adam Selipsky , CEO di AWS. “Il processore Grace Blackwell di nuova generazione di NVIDIA segna un significativo passo avanti nell’intelligenza artificiale generativa e nel GPU computing. Se combinato con la potente rete Elastic Fabric Adapter di AWS, il clustering iperscalabile di Amazon EC2 UltraClusters e le esclusive funzionalità di virtualizzazione e sicurezza avanzate del nostro AWS Nitro System , rendiamo possibile per i clienti creare ed eseguire modelli di linguaggio di grandi dimensioni con più di trilioni di parametri più velocemente, su larga scala e in modo più sicuro che altrove. Insieme, continuiamo a innovare per rendere AWS il posto migliore in cui eseguire GPU NVIDIA nel cloud”.
Il Progetto Ceiba, una collaborazione tra Amazon Web Services (AWS) e NVIDIA, è destinato a rivoluzionare il mondo dell’intelligenza artificiale (AI) costruendo il più grande supercomputer AI nel cloud. Questo supercomputer all’avanguardia, ospitato esclusivamente su AWS, alimenterà gli sforzi di ricerca e sviluppo di NVIDIA nell’AI, spingendo i confini di ciò che è possibile in campi come i modelli di linguaggio di grandi dimensioni (LLM), la grafica, la simulazione, la biologia digitale, la robotica, i veicoli autonomi e la previsione climatica.
Leggi tutto