I nuovi chip di memoria ad alta larghezza di banda (HBM) di Samsung Electronics non hanno ancora superato la valutazione di Nvidia per l’uso nei suoi processori IA a causa di problemi legati al calore e al consumo energetico, secondo quanto riferito da Reuters, citando fonti informate sulla questione.
Questi problemi riguardano sia i chip HBM3 di quarta generazione, attualmente utilizzati nei processori grafici per l’intelligenza artificiale, sia i chip HBM3E di quinta generazione, che Samsung e i suoi concorrenti lanceranno sul mercato quest’anno, come riportato da Reuters in un recente articolo.
Samsung ha enfatizzato che i chip HBM sono prodotti di memoria personalizzati che necessitano di processi di ottimizzazione in linea con le esigenze dei clienti. L’azienda sta lavorando a stretto contatto con i clienti per ottimizzare i propri prodotti, ha dichiarato il colosso tecnologico in una nota all’agenzia di stampa.
HBM, un tipo di memoria DRAM (memoria dinamica ad accesso casuale), posiziona i chip verticalmente per risparmiare spazio e ridurre il consumo di energia, facilitando l’elaborazione di enormi quantità di dati generati dalle applicazioni IA. Il superamento dei test di Nvidia, che detiene circa l’80% del mercato globale delle GPU per applicazioni IA, è cruciale per la crescita dei produttori di HBM.
Il mercato degli HBM è dominato dalle aziende sudcoreane SK Hynix e Samsung, con Micron Technology che detiene una quota minore. Dal 2022, Samsung cerca di superare la valutazione di Nvidia per i chip HBM3 e HBM3E. I risultati di un recente test fallito per i chip HBM3E a 8 e 12 strati di Samsung sono arrivati ad aprile, secondo il rapporto. Non è chiaro se i problemi possano essere risolti facilmente, ma l’incapacità di soddisfare le esigenze di Nvidia ha sollevato preoccupazioni tra gli investitori che Samsung possa rimanere indietro rispetto a SK Hynix e Micron.
SK Hynix è il principale fornitore di chip HBM per Nvidia e ha iniziato a fornire HBM3 da giugno 2022. L’azienda ha anche iniziato a fornire HBM3E alla fine di marzo a un cliente non rivelato, che secondo il rapporto sarebbe Nvidia.
All’inizio di questa settimana, Samsung ha nominato il veterano Young Hyun Jun a capo della sua unità di semiconduttori per affrontare quella che ha definito una “crisi” nel settore. Attualmente, Samsung non è ancora un fornitore di HBM3 per Nvidia, ma rifornisce clienti come Advanced Micro Devices.
Samsung ha annunciato che inizierà la produzione di massa dei prodotti HBM3E 12H e di un modulo da 128 GB basato su DDR5 da 32 Gb e 1 nm entro il secondo trimestre, come riportato nel comunicato sugli utili del primo trimestre di aprile. Ad inizio mese, SK Hynix ha comunicato che i suoi chip HBM per chipset AI sono esauriti per quest’anno e quasi completamente prenotati per l’anno prossimo.
Il colosso dei chip Nvidia sta tagliando il prezzo del suo chip di intelligenza artificiale più avanzato sviluppato per il mercato cinese, fissandolo a un prezzo inferiore a quello del chip rivale del colosso tecnologico cinese Huawei, Reuters riportato citando le fonti. L’azienda statunitense ha sviluppato chip focalizzati sulla Cina, H20, L20 e L2, per conformarsi alle restrizioni sulle esportazioni statunitensi. L’H20 di Nvidiasi distingue come il più potente tra i tre ed è disponibile per i preordini in Cina da marzo. Tuttavia, secondo le tre fonti della catena di approvvigionamento di Reuters, c’è un’abbondante offerta di chip sul mercato, segnalando una domanda debole.
Lascia un commento
Devi essere connesso per inviare un commento.