Nvidia、Vera Rubinプラットフォーム向けDRAMの無制限購入を公約
NvidiaのCEOジェンスン・ファンは、モルガン・スタンレー・テックカンファレンスでメモリチップメーカーに対し、Nvidiaが生産できるすべてのDRAMチップを購入するという明確な指示を出した。この積極的な調達戦略は、同社の次世代AIプラットフォーム「Vera Rubin」に必要な膨大なメモリリソースを確保することを目的としており、AIハードウェア軍拡競争の激化を示唆している。
ファンは、土地や電力といったデータセンターリソースが限られた環境では、顧客は投資を最大化するために利用可能な最も強力なコンピューティングソリューションを導入するインセンティブがあると説明した。このダイナミクスにより、高性能メモリの安定した供給確保がNvidiaにとって極めて重要な戦略的優先事項となり、メモリ価格が上昇しても同社は積極的な購入を続けるだろう。
次世代AIチップは288GBの先進HBM4メモリを必要とする
メモリに対する飽くなき需要は、Nvidiaの次世代アクセラレータのアーキテクチャに根ざしている。同社の現在のGB300プラットフォームは、既に前世代GB200の192GBから大幅に増加した288GBの高帯域幅メモリ(HBM)をサポートしているが、技術的要件はさらに強化される見込みだ。今後登場するVera Rubinプラットフォームは、288GBの容量を維持しつつ、現在のHBM3E規格からより高度なHBM4へ移行する。
HBM4への移行は、供給逼迫の主要な要因である。HBM4メモリは16層のスタック設計を採用しており、HBM3Eの12層設計よりも製造が複雑である。複雑度が高いと生産不良率が上昇し、機能するHBM4ユニットを1つ生産するために、より多くのDRAMウェハーが消費されることを意味する。この技術的飛躍は、グローバルな高性能メモリの供給をさらに逼迫させるだろう。
AI需要が消費者向け供給を圧迫する中、メモリメーカーが恩恵を受ける
Nvidiaの旺盛なメモリ需要の主要な受益者は、世界トップ3のDRAMメーカーであるSamsung、SK Hynix、Micronである。これら3社はいずれも生産を増強しているが、その焦点は高マージンのHBMと、収益性の高いAIデータセンター市場に対応するためのエンタープライズグレードDRAMにある。アナリストは、この転換が大幅なマージン拡大につながると考えており、Stifelのアナリストであるブライアン・チン氏は、サーバーDDR5製品の粗利益率が80%を超える可能性があると予測している。
この戦略的焦点は、重要な波及効果をもたらすと予想される。AI関連メモリの優先順位付けにより、コンシューマーDRAM市場では少なくとも今後1年間、供給不足が発生し、PCやその他の消費者向け電子機器のメモリの可用性とコストに影響を与えると予測されている。同時に、需給の逼迫は、HBM、LPDDR4、LPDDR5、そして今後登場するDDR6規格の価格を継続的に押し上げると予想されており、これはFoxconn、Quanta、WistronといったNvidiaの主要なサーバー組立パートナーにも恩恵をもたらすだろう。