NVIDIA continua a dominare il mercato degli acceleratori per l’intelligenza artificiale (AI), ma secondo un’analisi della società di investimento Jefferies, ci sono spazi di crescita per altre aziende, in particolare quelle specializzate in circuiti integrati specifici per applicazioni, o ASIC. Il ruolo di NVIDIA rimane cruciale per la fornitura di unità di elaborazione grafica (GPU), ma la tendenza dei colossi tecnologici ad adottare soluzioni personalizzate per la gestione e l’accelerazione dei carichi di lavoro AI sta creando un panorama più competitivo, in cui altri protagonisti possono ritagliarsi importanti quote di mercato.

Tra i beneficiari di questa espansione, Jefferies sottolinea Marvell che sta sviluppando il chip Trainium 2 per Amazon. Questo chip personalizzato sta guadagnando trazione rapidamente, con Amazon che sta ampliando le sue capacità di training per il machine learning. Parallelamente, Broadcom ha registrato successi significativi grazie al suo business di prodotti customizzati, collaborando con giganti come Google e Meta per i loro rispettivi acceleratori AI: i Tensor Processing Units (TPU) di Google e il Meta Training and Inference Accelerator di Meta.

Le previsioni di Jefferies per il mercato degli acceleratori AI sono ottimistiche: si attende una crescita del fatturato ad un tasso di crescita annuale composto (CAGR) del 58% dal 2023 al 2027. Questa espansione sarà sostenuta da un aumento del 30% nei volumi e da un incremento del 22% nei prezzi medi di vendita.

Gli analisti osservano come gli hyperscaler stiano intensificando gli investimenti sia su GPU sia su programmi interni di sviluppo ASIC. Questi impegni, secondo Jefferies, sono destinati a superare le aspettative attuali, offrendo così un potenziale di crescita rispetto alle stime attuali. Nel breve termine, le opportunità più immediate sembrano favorire NVIDIA e Marvell, mentre Broadcom dovrebbe registrare benefici più evidenti nel corso del prossimo anno.

Per quanto riguarda AMD, la società è in una fase di “show-me story”, una posizione in cui gli investitori aspettano risultati tangibili prima di consolidare la loro fiducia. Tuttavia, segnali positivi stanno emergendo, con reazioni positive da parte dei clienti, tra cui Meta e Microsoft (MSFT), che hanno recentemente scelto AMD per le loro soluzioni AI. La produzione di AMD sta raggiungendo volumi significativi, e la guida per il 2024 è stata aumentata a $5 miliardi in ricavi specifici per prodotti AI, un segnale di fiducia nella sua capacità di mantenere il passo in un mercato estremamente dinamico.

Altri Beneficiari nel Boom dell’AI: Memoria e Soluzioni High-Bandwidth

Con l’aumento della domanda di soluzioni AI, la richiesta di memoria ad alta velocità (high-bandwidth memory, HBM) sta crescendo a sua volta. Secondo Jefferies, il segmento dell’HBM, essenziale per l’elaborazione di grandi volumi di dati, potrebbe continuare a registrare una crescita annuale tra il 40% e il 50% a livello di die (unità di elaborazione per semiconduttori), un trend che avvantaggerà aziende come Camteke Onto Innovation.

Le crescenti esigenze di HBM spingeranno i principali attori del settore della memoria a investire ulteriormente nell’espansione della capacità produttiva, con un CAGR stimato di circa il 50% dal 2024 al 2027 per i volumi di die HBM. Questa tendenza rappresenta un’opportunità di crescita significativa per aziende come Camtek e Onto, che giocano un ruolo strategico nel fornire soluzioni per le esigenze avanzate di memoria ad alta larghezza di banda richieste dai carichi di lavoro AI moderni.

La competizione nel settore degli acceleratori AI si sta dunque intensificando, con NVIDIA che mantiene una posizione dominante ma con spazi di crescita per chi è capace di rispondere alle esigenze di personalizzazione dei grandi hyperscaler.