Con l’aumento della competizione tra le aziende di intelligenza artificiale per costruire modelli di linguaggio sempre più grandi, la spesa per l’infrastruttura AI da parte di Microsoft, Amazon Web Services, Google e Meta Platforms è prevista raggiungere un totale combinato di 160 miliardi di dollari nel 2024, secondo Bernstein Société Générale Group.

Tradizionalmente, gli investitori ritenevano che una maggiore spesa fosse destinata all’inferenza. Tuttavia, le crescenti efficienze in questo settore hanno spinto Bernstein a sostenere che i costi per l’addestramento siano significativamente più elevati. I dati più recenti indicano che l’inferenza rappresenta solo circa il 5% della spesa per l’infrastruttura AI.

Costi di Addestramento in Crescita

Bernstein ha scoperto che ogni nuovo modello di linguaggio richiede circa dieci volte i costi infrastrutturali rispetto al modello precedente. Per esempio, GPT-2 di OpenAI è stato addestrato su un cluster di chip dal valore di circa 3 milioni di dollari, mentre GPT-3 ha richiesto hardware per un valore di circa 30 milioni di dollari. GPT-4, invece, è stato addestrato utilizzando 25.000 chip A100, il cui costo totale si aggira intorno ai 300 milioni di dollari.

Utilizzando questa storia come guida, Bernstein stima che GPT-5 necessiterà di 100.000 chip H100 di Nvidia, con un costo previsto di circa 3 miliardi di dollari per l’addestramento del modello. Per dare un’idea delle dimensioni di questa spesa, si prevede che OpenAI guadagnerà 3,7 miliardi di dollari in vendite nel 2024.

Gli analisti di Bernstein, guidati da Toni Sacconaghi, affermano che “per Dell e Hewlett Packard Enterprise, crediamo che le loro fortune nell’AI rimarranno legate all’addestramento e ai fornitori di livello 2 per il prevedibile futuro, dove i profitti sono molto bassi, rispetto all’inferenza on-premise, dove i margini sono probabilmente molto più elevati”.

Dell e Hewlett Packard Enterprise (HPE) stanno attualmente navigando nel complesso panorama dei mercati dei server per l’intelligenza artificiale (AI), con le loro fortune strettamente legate ai sistemi di addestramento e ai fornitori di secondo livello per il prevedibile futuro. Questa relazione deriva dai margini di profitto più bassi associati all’addestramento rispetto ai margini potenzialmente più elevati che si possono trovare nei sistemi di inferenza on-premise.

Entrambi i gruppi sono fortemente investiti nei sistemi di addestramento dell’AI, essenziali per lo sviluppo dei modelli di intelligenza artificiale. Tuttavia, questi sistemi spesso generano profitti inferiori a causa degli alti costi operativi e delle pressioni sui prezzi competitivi.

Ad esempio, HPE ha riportato un aumento significativo delle vendite di server AI, raggiungendo 900 milioni di dollari in un recente trimestre, ma ha affrontato sfide relative alla redditività, evidenziando che i margini sono sotto pressione. Al contrario, i sistemi di inferenza, utilizzati per implementare i modelli AI, offrono tipicamente margini più elevati. Aziende come Dell si aspettano di spostare il focus verso questi sistemi mentre cercano di migliorare la redditività.

Le recenti performance di Dell indicano una domanda robusta per i server ottimizzati per l’AI, con ricavi da questo segmento che superano 1,7 miliardi di dollari, riflettendo un drammatico aumento anno su anno.Le performance finanziarie di Dell Technologies mostrano una forte crescita nel suo segmento di server AI, con un aumento delle vendite dieci volte superiore rispetto all’anno precedente.

Nonostante questo successo, sono emerse preoccupazioni riguardo al calo dei margini mentre l’azienda espande la propria base clienti acquisendo nuovi grandi clienti. Gli investitori hanno reagito con cautela a questi sviluppi, portando a fluttuazioni nei prezzi delle azioni.

D’altra parte, i risultati finanziari di HPE hanno mostrato promesse con un aumento del 39% delle entrate dai server AI rispetto al trimestre precedente. Tuttavia, l’azienda ha riportato margini lordi rettificati del 31,8%, non raggiungendo le aspettative e evidenziando le sfide in corso relative alla redditività. Il CEO Antonio Neri ha riconosciuto la necessità per HPE di diversificare le proprie offerte per includere prodotti a margine più elevato accanto ai suoi server AI.

In questo contesto, il potenziale per dinamiche di addestramento forti nell’AI generativa potrebbe rivelarsi costruttivo per Nvidia. Tuttavia, ci sono interrogativi sul ritmo e la traiettoria dell’inferenza AI generativa, che potrebbero incidere negativamente sui concorrenti di Nvidia, che hanno riconosciuto la superiorità della società nell’addestramento e si sono concentrati sull’inferenza come principale opportunità a lungo termine.

Preoccupazioni per l’Overbuilding

Le aziende leader nella costruzione di modelli di linguaggio stanno già prenotando anticipatamente i chip Blackwell di Nvidia per prepararsi ai modelli di nuova generazione. Tuttavia, Bernstein mette in guardia contro “molti precedenti di aziende tecnologiche che hanno sovrastrutturato la capacità e poi hanno vissuto un ciclo di digestione significativo, compreso il mercato dei server e il mercato delle telecomunicazioni/fibre”.

In particolare, c’è preoccupazione per uno scenario in cui una nuova generazione di modelli deluda, portando a una decelerazione nella spesa per l’addestramento, mentre l’adozione dell’inferenza non aumenta abbastanza da compensare, creando un’importante lacuna nella spesa.

.