OpenAI sta pianificando un’acquisizione massiccia di infrastrutture per lo storage, valutata in miliardi di dollari, secondo The Information. Questa mossa segnerebbe un passaggio epocale: la transizione dall’affidarsi a fornitori cloud come Microsoft e Oracle alla costruzione di un proprio data center. Se realizzata, trasformerebbe OpenAI in uno dei più grandi clienti di storage al mondo da un giorno all’altro.
La richiesta di OpenAI è colossale: 5 exabyte di storage. Per dare un’idea delle proporzioni, nel 2021 Apple gestiva più di 8 exabyte di dati attraverso vari fornitori cloud, principalmente per supportare i servizi di iCloud. Quindi OpenAI si sta muovendo a una scala comparabile a quella di Apple, ma con una differenza sostanziale: la sua infrastruttura non dovrà solo archiviare dati, ma alimentare modelli di intelligenza artificiale di nuova generazione, con necessità di accesso e calcolo estremamente intensive.
Perché OpenAI vuole il proprio data center? Fino a oggi, OpenAI ha fatto affidamento su Microsoft Azure per l’addestramento e il deployment dei suoi modelli, con Microsoft che ha investito miliardi nella startup e fornito accesso a supercomputer AI su misura. Ma questa nuova mossa suggerisce un cambio di rotta.
Tre ipotesi sono plausibili:
1. Indipendenza strategica – OpenAI potrebbe voler ridurre la sua dipendenza da Microsoft e avere un maggiore controllo sulla propria infrastruttura, riducendo i costi a lungo termine e aumentando la flessibilità.
2. Limiti del cloud pubblico – I modelli AI più avanzati richiedono un’enorme quantità di dati e potenza di calcolo. Il cloud pubblico potrebbe non essere più sufficiente in termini di performance e latenza.
3. Accesso diretto all’hardware – Costruendo il proprio data center, OpenAI potrebbe progettare sistemi ottimizzati per le proprie esigenze, migliorando efficienza e scalabili
Se OpenAI sta davvero per costruire un’infrastruttura su questa scala, gli effetti si faranno sentire in tutto il settore. Microsoft, nonostante sia un partner chiave, potrebbe perdere una parte significativa del business legato all’hosting dei modelli di OpenAI.
Lo stesso vale per Oracle e altri fornitori di storage e calcolo su larga scala.D’altra parte, un progetto di questo tipo potrebbe aprire la strada a una nuova ondata di data center specializzati per AI, con altre aziende che seguiranno l’esempio per evitare la dipendenza dal cloud pubblico. Google, Amazon e Meta potrebbero riconsiderare le loro strategie di infrastruttura.
Gestire un’infrastruttura di questa portata non è banale. OpenAI avrà bisogno di hardware altamente specializzato, probabilmente con tecnologia di archiviazione avanzata come i file system distribuiti e le memorie non volatili di nuova generazione.
Possibili fornitori potrebbero essere colossi come Nvidia (che oltre alle GPU sviluppa anche soluzioni per l’AI storage), Seagate, Western Digital, Pure Storage o startup emergenti nel settore dell’hyperscale storage.
Il futuro dell’AI passa dall’infrastrutturaL’intelligenza artificiale non è solo software e modelli, ma anche hardware e capacità di gestione dati. OpenAI sembra aver capito che per mantenere il proprio vantaggio competitivo deve controllare non solo gli algoritmi, ma anche l’infrastruttura sottostante.
Se questo è l’inizio di una nuova era per il cloud, presto vedremo altre aziende AI abbandonare i fornitori tradizionali per costruire il proprio stack.