Nvidia S'engage à Acheter Sans Limite de DRAM pour sa Plateforme Vera Rubin
Le PDG de Nvidia, Jensen Huang, a donné une directive sans équivoque aux fabricants de puces mémoire lors de la Morgan Stanley Tech Conference : Nvidia achètera chaque puce DRAM qu'ils pourront produire. Cette stratégie d'approvisionnement agressive vise à sécuriser les vastes ressources de mémoire nécessaires pour la plateforme d'IA Vera Rubin de la société, signalant une escalade dans la course aux armements matériels de l'IA.
Huang a expliqué que dans un environnement où les ressources des centres de données comme le terrain et l'énergie sont contraintes, les clients sont incités à déployer les solutions de calcul les plus puissantes disponibles pour maximiser leur investissement. Cette dynamique fait de la sécurisation d'un approvisionnement stable en mémoire haute performance une priorité stratégique critique pour Nvidia, qui poursuivra ses achats agressifs même si les prix de la mémoire augmentent.
Les Puces IA de Nouvelle Génération Nécessiteront 288 Go de Mémoire HBM4 Avancée
La demande insatiable de mémoire est ancrée dans l'architecture des accélérateurs de nouvelle génération de Nvidia. Alors que la plateforme GB300 actuelle de la société prend déjà en charge une quantité substantielle de 288 Go de mémoire à large bande passante (HBM), une augmentation significative par rapport aux 192 Go de la génération GB200 précédente, les exigences techniques sont sur le point de s'intensifier. La prochaine plateforme Vera Rubin maintiendra la capacité de 288 Go mais passera du standard HBM3E actuel au HBM4 plus avancé.
Ce passage au HBM4 est un facteur clé de la tension sur l'approvisionnement. La mémoire HBM4 utilise une conception empilée à 16 couches, qui est plus complexe à fabriquer que la conception à 12 couches du HBM3E. La complexité plus élevée augmente le taux d'échec de production, ce qui signifie que davantage de wafers DRAM bruts sont consommés pour produire chaque unité HBM4 fonctionnelle. Ce bond technologique exercera une pression supplémentaire sur l'approvisionnement mondial en mémoire haute performance.
Les Fabricants de Mémoire Bénéficient de la Demande d'IA Qui Réduit l'Offre Grand Public
Les principaux bénéficiaires de l'appétit vorace de Nvidia pour la mémoire sont les trois plus grands fabricants de DRAM au monde : Samsung, SK Hynix et Micron. Bien que tous trois augmentent leur production, leur objectif est la HBM à forte marge et la DRAM de qualité entreprise pour servir le marché lucratif des centres de données d'IA. Les analystes estiment que ce pivot conduira à une expansion significative des marges, l'analyste de Stifel, Brian Chin, prévoyant que les marges brutes des produits DDR5 pour serveurs pourraient dépasser 80 %.
Cet accent stratégique devrait avoir des répercussions significatives. La priorisation de la mémoire liée à l'IA devrait entraîner un déficit d'approvisionnement sur le marché de la DRAM grand public pendant au moins la prochaine année, impactant la disponibilité et le coût de la mémoire pour les PC et autres appareils électroniques grand public. Simultanément, l'équilibre étroit entre l'offre et la demande devrait entraîner une augmentation continue des prix pour la HBM, la LPDDR4, la LPDDR5 et les futures normes DDR6, bénéficiant également aux partenaires d'assemblage de serveurs clés de Nvidia tels que Foxconn, Quanta et Wistron.