L'explosion de la demande en intelligence artificielle s'apprête à réallouer radicalement les dépenses des centres de données vers la mémoire, sa part dans les dépenses d'investissement devant approcher un tiers du total d'ici 2026, contre seulement 8 % en 2023. Ce changement spectaculaire, prévu par le cabinet d'études SemiAnalysis, laisse présager une période de flambée des prix et de pénurie de composants critiques tels que la mémoire à haute bande passante (HBM) et la DRAM.
Le rapport prévoit que les prix de la DRAM feront plus que doubler d'ici 2026, avec de nouvelles augmentations à deux chiffres en 2027. « La hausse des coûts est sans précédent », a déclaré Jeff Clarke, directeur de l'exploitation de Dell, lors d'une conférence téléphonique sur les résultats, décrivant la rapidité de l'augmentation des coûts des composants impactant l'industrie des serveurs.
Selon SemiAnalysis, la part de la mémoire dans le capex des centres de données hyperscale atteindra environ 30 % en 2026 et augmentera encore en 2027. Le cabinet s'attend à ce que la HBM, cette mémoire empilée verticalement essentielle aux accélérateurs d'IA, reste en sous-offre jusqu'en 2027. Cela affecte déjà les coûts du matériel, les prix des serveurs B200 de Nvidia devant grimper jusqu'à 20 % d'ici la fin de l'année en raison de la hausse des coûts de la mémoire.
Le goulot d'étranglement imminent de la mémoire crée des gagnants et des perdants clairs. Les producteurs de mémoire, notamment Samsung, SK Hynix et Micron, sont en position de bénéficier d'un bond significatif de leurs revenus et de leurs marges. À l'inverse, les fabricants de serveurs d'IA et les grands fournisseurs de cloud feront face à une pression soutenue sur leurs marges bénéficiaires. La situation pourrait également creuser l'écart de compétitivité entre Nvidia et ses rivaux comme AMD, car la taille de Nvidia lui permet d'obtenir des tarifs « très préférentiels » auprès des fournisseurs, une remise inaccessible aux acheteurs de plus petits volumes.
L'avantage de Nvidia, le défi d'AMD
SemiAnalysis note que la tarification préférentielle de la DRAM accordée à Nvidia comprime efficacement ses coûts de serveur et masque la gravité de la pénurie pour le reste du marché. Ce pouvoir d'achat lui confère un avantage structurel considérable en termes de coûts par rapport à ses concurrents.
AMD, dont la part de marché dans les accélérateurs d'IA est plus réduite, est plus exposé à l'escalade des coûts de la mémoire et ne peut pas exiger de remises similaires. Cette dynamique pourrait entraver sa capacité à rivaliser sur les prix et l'échelle dans un marché où la mémoire devient un moteur de coût primaire.
La course à l'offre ne suit pas le rythme
En réponse à la demande, les principaux fabricants de mémoire déplacent leur capacité de production vers la HBM et d'autres produits DRAM d'entreprise à haute marge. Cependant, ce pivot limite l'offre de mémoire conventionnelle DDR5 et LPDDR5, faisant grimper les prix dans tous les secteurs.
Les nouvelles installations de production majeures, telles que l'usine HBM de 9,6 milliards de dollars de Micron à Hiroshima et les extensions de SK Hynix à Icheon et Cheongju, ne devraient pas contribuer de manière substantielle à la production avant 2027 ou 2028 au plus tôt. Selon SemiAnalysis, bien que les fournisseurs de cloud aient partiellement intégré ces hausses de prix dans leurs prévisions de dépenses pour 2026, les estimations de Wall Street n'ont pas encore pleinement pris en compte le réajustement tarifaire attendu en 2027, suggérant qu'un impact financier supplémentaire reste à venir.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.