COMPUTEX Taipei, o Taipei International Information Technology Show (Cinese: 台北國際電腦展), è una prestigiosa manifestazione internazionale dedicata al mondo dei computer. Si tiene annualmente nella città di Taipei (Taiwan) presso il Taipei World Trade Center durante la prima settimana di giugno.

Il primo evento di Computex si è svolto nel 1981. A partire dagli anni ’90, la manifestazione ha conosciuto una rapida espansione, diventando un evento fondamentale per l’industria della tecnologia informatica.

Oggi è la seconda più importante fiera del settore a livello mondiale e la prima in Asia. Questo anno sono presenti e 1.500 espositori attraverso ben 4.500 stand.

Grazie al gran numero di aziende impegnate nella produzione di hardware per computer, il Computex è diventato il luogo ideale per gli osservatori desiderosi di vedere in anteprima le nuove tecnologie del settore. I CEO delle principali società di semiconduttori terranno discorsi chiave nell’arco di 48 ore. In ordine cronologico, ascolteremo interventi da Jensen Huang di NVIDIA, Lisa Su di AMD, Rene Haas di Arm, Cristiano R. Amon di Qualcomm, Pat Gelsinger di Intel Corporation e Rick Tsai di MediaTek.

Jensen Huang CEO di Nvidia.

Il primo discorso è stato tenuto da Jensen Huang CEO di Nvidia, originario di Taiwan, che ha combinato una lezione divertente sulle capacità della GenAI con esempi specifici di prodotti Nvidia. Huang ha anche descritto una nuova rivoluzione industriale con fabbriche di intelligenza artificiale alimentate da hardware e software Nvidia. Ha presentato una roadmap di prodotto fino al 2027, con la piattaforma Rubin come evoluzione oltre Blackwell. Questa roadmap fornisce una direzione generale confortante per molti in un mercato in rapido movimento come quello della GenAI.

Huang ha evidenziato che la roadmap delle loro GPU core avrà un ritmo annuale accelerato, con miglioramenti significativi ogni anno. Nvidia intende mantenere la sua posizione dominante negli acceleratori di intelligenza artificiale.

Un’altra area discussa da Nvidia è il passaggio al software e ai servizi. La loro piattaforma CUDA è già uno standard, e stanno spingendo le offerte NIM (Nvidia Inference Microservices), ora generalmente disponibili. I NIM includono tutti i componenti software necessari per creare e abilitare applicazioni IA in contenitori precostruiti, parte di una strategia aziendale più ampia per entrare nel mercato del software aziendale.

Nvidia ha recentemente collaborato con aziende hardware come Dell Technologies, Lenovo, e HPE, ampliando la portata dei suoi strumenti software.

Una speculazione a Computex riguarda l’intenzione di Nvidia di entrare nel mercato dei PC AI con un SOC basato su Arm, in collaborazione con Mediatek, potenzialmente nel 2025 o oltre. Questo potrebbe avere un impatto significativo sul mercato dei chip per PC.

Huang ha concluso con una discussione sulla robotica basata sull’intelligenza artificiale e il ruolo della piattaforma software Omniverse per il gemello digitale. La robotica si preannuncia come uno sviluppo importante per applicazioni industriali e interazioni umane.

CEO di AMD, Dr. Lisa Su

Poe e’ venuto il turno del CEO di AMD, Dr. Lisa Su, al Computex di quest’anno. AMD è un concorrente chiave di Nvidia per le GPU e di Intel per le CPU, quindi i loro sforzi stanno ricevendo molta attenzione. Dr. Su ha parlato di una nuova architettura CPU chiamata Zen 5 e di una nuova architettura NPU chiamata XDNA2, che supporta il tipo di dati Block Floating Point (Block FP16). Questo standard di settore offre prestazioni e precisione migliorate e AMD è la prima a implementarlo nell’hardware.

Al Computex, AMD ha lanciato la serie Ryzen 9000 per PC desktop, senza NPU integrata ma con prestazioni elevate per giocatori e creatori di contenuti. AMD ha anche introdotto la nuova serie Ryzen AI 300 per laptop, costruita con la NPU XDNA 2 che offre 50 TOP di prestazioni. Questi laptop arriveranno sul mercato a luglio, ma il software Copilot+ specifico per AMD non sarà pronto al lancio. Microsoft sta dando priorità ai dispositivi Qualcomm Arm, quindi i sistemi AMD saranno “Copilot+ Ready” e richiederanno un aggiornamento software in autunno.

Per il data center, AMD ha presentato le ultime CPU Epyc Gen 5 (nome in codice Torino) e gli acceleratori GPU della serie Instinct MI-300. Le nuove CPU sono basate sull’architettura Zen5, offrendo prestazioni AI fino a 5 volte più veloci rispetto a Intel. Gli acceleratori GPU Instinct MI325 offrono il doppio della memoria HBM3E rispetto a qualsiasi altra scheda sul mercato. AMD ha anche annunciato una cadenza annuale per i miglioramenti della linea di acceleratori GPU, con l’MI350 del prossimo anno che promette un miglioramento di 35 volte rispetto alle schede attuali.

AMD continua a guadagnare terreno contro Nvidia per l’accelerazione su larga scala e qualsiasi miglioramento sarà ben accolto nei settori del cloud computing e dei data center aziendali. In sintesi, AMD continua a sorprendere e a dimostrare di essere una forza trainante nel mondo dei semiconduttori.

CEO Rene Haas di Arm eChris Bergey, SVP GM

E’ stata la volta del CEO Rene Haas di Arm e Chris Bergey, SVP e GM del Client Business dell’azienda. Hanno parlato del ruolo storico di Arm nel settore informatico, dei nuovi strumenti di intelligenza artificiale e annunci architettonici importanti per CPU, GPU e relativi sottosistemi. Haas ha iniziato raccontando la storia di Arm, che ha fornito la prima CPU per il Newton di Apple. Ha spiegato che l’attenzione di Arm per i consumi ridotti è ancora rilevante oggi, sia per dispositivi alimentati a batteria che per server ad alta potenza. Amazon, Google, Microsoft e Nvidia utilizzano o hanno annunciato chip basati sui progetti Neoverse di Arm, affrontando le crescenti esigenze energetiche dei data center.

Haas ha anche parlato della vasta base di dispositivi basati su Arm venduti negli ultimi decenni e della libreria di strumenti di sviluppo software. Ha presentato le nuove librerie software KleidiAI, che semplificano la creazione di applicazioni di intelligenza artificiale su sistemi Arm, e KleidiCV per applicazioni di visione artificiale in vari settori.

Chris Bergey è salito sul palco per discutere dei nuovi prodotti IP client di Arm e del concetto di sottosistema di calcolo (CSS) per i dispositivi client. Ha presentato la nuova CPU Cortex-X925, che offre un aumento fino al 35% delle prestazioni IPC, e le CPU Cortex-A725 e Cortex-A520. Sul fronte GPU, ha introdotto l’Immortalis-G925, che migliora del 37% le prestazioni grafiche e fino al 34% per applicazioni AI basate su GPU, insieme ai Mali-G725 e Mali-G625 aggiornati. Questi nuovi progetti IP permettono combinazioni potenti di core CPU e GPU per PC, visori AR, dispositivi indossabili e altro.

Arm ha anche dettagliato le offerte CSS per aiutare i partner nella progettazione di chip, ottimizzate per le tecnologie di processo a 3 nm, riducendo i tempi di sviluppo fino a un anno. Manca ancora un IP per NPU nei dispositivi tradizionali, ma Arm ha sottolineato che le CPU sono ancora l’elemento informatico principale per molte applicazioni.

Infine, è importante ricordare che il lavoro di Arm e i loro annunci hanno un’influenza ampia e duratura, poiché i loro progetti di chip sono concessi in licenza a molte aziende, che li incorporano nei loro prodotti. Questo modello di business rende Arm un’azienda di grande impatto nel mondo dell’informatica.

Broadcom e Marvell Technology

dovrebbero “dominare” la fascia alta del mercato in rapida crescita dei chip personalizzati, ha detto martedì la società di investimento JP Morgan.

La società di ricerca prevede che il mercato degli ASIC di fascia alta raggiungerà un valore compreso tra 20 e 30 miliardi di dollari, rispetto alla precedente stima di 20-25 miliardi di dollari, con una crescita annua composta del 20%. Questo aumento è attribuito principalmente all’avanzamento dell’intelligenza artificiale generativa.

“Gli ASIC personalizzati sono una buona alternativa agli acceleratori di calcolo standard (Nvidia H100/B200).

Le grandi aziende cloud come Google, Meta/Facebook, Microsoft e Amazon cercano prestazioni migliori, minor consumo energetico e costi più bassi.

L’analista Harlan Sur ha scritto che Broadcom sta collaborando con Google sul loro TPU v7 di prossima generazione, garantendo partnership e ricavi fino al 2026-2027.

Google ha presentato la sesta generazione del suo processore alla conferenza degli sviluppatori il mese scorso. Grandi aziende come Google, Meta, Microsoft e Amazon hanno annunciato programmi di silicio personalizzati per ridurre la dipendenza da Nvidia.

JP Morgan ritiene che Broadcom e Marvell ne trarranno vantaggio, con Broadcom che detiene il 60% del mercato ASIC personalizzato e Marvell il 15%.”

Intel

Lunedì, l’azienda statunitense di semiconduttori ha presentato i processori di nuova generazione e i chip di intelligenza artificiale, cercando di riconquistare quote di mercato nei data center in mezzo alla forte concorrenza di Nvidia e Advanced Micro Devices.

Il produttore di chip ha svelato i suoi nuovi processori server Xeon di prossima generazione, progettati per affrontare una vasta gamma di casi d’uso e carichi di lavoro.

Durante la conferenza tecnologica Computex a Taiwan, l’azienda ha anche annunciato che i suoi chip acceleratori AI Gaudi avranno un prezzo significativamente inferiore rispetto ai prodotti dei concorrenti.

La famiglia di processori Intel Xeon 6, che include le opzioni E-core e P-core, è progettata per offrire migliori prestazioni ed efficienza energetica per carichi di lavoro di data center ad alta intensità rispetto alla generazione precedente, ha dichiarato il CEO Pat Gelsinger.

Il primo della famiglia a debuttare al Computex 2024 è il processore Intel Xeon 6 con core Efficient, nome in codice Sierra Forest, che consente un consolidamento a livello di rack di 3 a 1 e un miglioramento delle prestazioni a livello di rack fino a 4,2 volte e un guadagno di prestazioni per watt fino a 2,6 volte rispetto ai processori Intel Xeon di seconda generazione nei carichi di lavoro di transcodifica multimediale.

Il lancio dei processori Intel Xeon 6 con P-core, progettati per carichi di lavoro più impegnativi, è previsto per il terzo trimestre del 2024.