I nuovi chip di memoria ad alta larghezza di banda (HBM) di Samsung Electronics non hanno ancora superato la valutazione di Nvidia per l’uso nei suoi processori IA a causa di problemi legati al calore e al consumo energetico, secondo quanto riferito da Reuters, citando fonti informate sulla questione.

Questi problemi riguardano sia i chip HBM3 di quarta generazione, attualmente utilizzati nei processori grafici per l’intelligenza artificiale, sia i chip HBM3E di quinta generazione, che Samsung e i suoi concorrenti lanceranno sul mercato quest’anno, come riportato da Reuters in un recente articolo.

Samsung ha enfatizzato che i chip HBM sono prodotti di memoria personalizzati che necessitano di processi di ottimizzazione in linea con le esigenze dei clienti. L’azienda sta lavorando a stretto contatto con i clienti per ottimizzare i propri prodotti, ha dichiarato il colosso tecnologico in una nota all’agenzia di stampa.

HBM, un tipo di memoria DRAM (memoria dinamica ad accesso casuale), posiziona i chip verticalmente per risparmiare spazio e ridurre il consumo di energia, facilitando l’elaborazione di enormi quantità di dati generati dalle applicazioni IA. Il superamento dei test di Nvidia, che detiene circa l’80% del mercato globale delle GPU per applicazioni IA, è cruciale per la crescita dei produttori di HBM.

Il mercato degli HBM è dominato dalle aziende sudcoreane SK Hynix e Samsung, con Micron Technology che detiene una quota minore. Dal 2022, Samsung cerca di superare la valutazione di Nvidia per i chip HBM3 e HBM3E. I risultati di un recente test fallito per i chip HBM3E a 8 e 12 strati di Samsung sono arrivati ad aprile, secondo il rapporto. Non è chiaro se i problemi possano essere risolti facilmente, ma l’incapacità di soddisfare le esigenze di Nvidia ha sollevato preoccupazioni tra gli investitori che Samsung possa rimanere indietro rispetto a SK Hynix e Micron.

SK Hynix è il principale fornitore di chip HBM per Nvidia e ha iniziato a fornire HBM3 da giugno 2022. L’azienda ha anche iniziato a fornire HBM3E alla fine di marzo a un cliente non rivelato, che secondo il rapporto sarebbe Nvidia.

All’inizio di questa settimana, Samsung ha nominato il veterano Young Hyun Jun a capo della sua unità di semiconduttori per affrontare quella che ha definito una “crisi” nel settore. Attualmente, Samsung non è ancora un fornitore di HBM3 per Nvidia, ma rifornisce clienti come Advanced Micro Devices.

Samsung ha annunciato che inizierà la produzione di massa dei prodotti HBM3E 12H e di un modulo da 128 GB basato su DDR5 da 32 Gb e 1 nm entro il secondo trimestre, come riportato nel comunicato sugli utili del primo trimestre di aprile. Ad inizio mese, SK Hynix ha comunicato che i suoi chip HBM per chipset AI sono esauriti per quest’anno e quasi completamente prenotati per l’anno prossimo.

Il colosso dei chip Nvidia sta tagliando il prezzo del suo chip di intelligenza artificiale più avanzato sviluppato per il mercato cinese, fissandolo a un prezzo inferiore a quello del chip rivale del colosso tecnologico cinese Huawei, Reuters riportato citando le fonti. L’azienda statunitense ha sviluppato chip focalizzati sulla Cina, H20, L20 e L2, per conformarsi alle restrizioni sulle esportazioni statunitensi. L’H20 di Nvidiasi distingue come il più potente tra i tre ed è disponibile per i preordini in Cina da marzo. Tuttavia, secondo le tre fonti della catena di approvvigionamento di Reuters, c’è un’abbondante offerta di chip sul mercato, segnalando una domanda debole.