L’ascesa dell’intelligenza artificiale generativa ha consacrato Nvidia come il gigante incontrastato dei semiconduttori, grazie ai suoi avanzati GPU, diventati il cuore pulsante dei modelli IA più potenti. La domanda per l’H100, il chip di punta di Nvidia, ha superato di gran lunga l’offerta, facendo schizzare il valore dell’azienda sopra il trilione di dollari per la prima volta nella sua storia. Questa dipendenza dalle soluzioni Nvidia ha però spinto i principali player del settore Microsoft, Meta, OpenAI, Amazon e Google a sviluppare i propri chip personalizzati, nel tentativo di ridurre i costi e guadagnare autonomia strategica.
Il mercato dei semiconduttori è ormai il vero campo di battaglia per il predominio nell’intelligenza artificiale. Nvidia, AMD e Intel si sfidano nel rilascio di processori sempre più potenti ed efficienti, mentre i colossi tecnologici cercano di emanciparsi dalle loro soluzioni. Secondo un recente report di Reuters, OpenAI è pronta a lanciare il proprio chip AI già nel 2025. La società guidata da Sam Altman starebbe affinando il design del suo processore, con l’obiettivo di inviarlo a TSMC per la produzione nei prossimi mesi.
La scelta di sviluppare un chip proprietario potrebbe ridurre drasticamente la dipendenza di OpenAI dai prodotti Nvidia, limitando l’utilizzo delle GPU H100 per l’addestramento e l’esecuzione dei suoi modelli. Il chip sarà realizzato con la tecnologia a 3 nanometri di TSMC, una delle più avanzate disponibili, e includerà memoria ad alta larghezza di banda e capacità di networking estese. Inizialmente verrà implementato su scala limitata, focalizzandosi soprattutto sull’inferenza dei modelli, ma in futuro OpenAI prevede di sviluppare versioni più avanzate con potenza di calcolo superiore.
Non è la prima volta che emergono dettagli su questa strategia. Già nel 2023 Reuters aveva riportato che OpenAI stava collaborando con Broadcom per la progettazione di un chip personalizzato. Il team dedicato alla progettazione del processore è guidato da Richard Ho, ex ingegnere dei TPU di Google, e negli ultimi mesi è raddoppiato, passando da 20 a 40 membri.
Le aziende tecnologiche stanno investendo miliardi per costruire l’infrastruttura necessaria a supportare i loro modelli IA sempre più affamati di potenza computazionale. Tuttavia, non tutti sono convinti che sia necessario acquistare migliaia di chip per mantenere la competitività. La startup DeepSeek, ad esempio, ha sollevato dubbi sulla sostenibilità di questo modello, suggerendo che esistono soluzioni alternative per ottimizzare l’uso dell’hardware.
Il dominio di Nvidia non è ancora in discussione, ma la concorrenza si sta organizzando. La corsa all’IA sta rapidamente diventando una guerra tecnologica sui semiconduttori, con ogni attore che cerca di costruire il proprio arsenale per mantenere il controllo dell’innovazione.