NVIDIA、200億ドルのGroq IPを統合し、低遅延AI推論を実現
GTC 2026カンファレンスで、NVIDIAはGroq LPX推論ラックを発表しました。これは、200億ドル規模のGroqの知的財産およびチーム買収から生まれた初の主要製品です。このシステムは、Groqの低遅延処理ユニット(LPU)アーキテクチャとNVIDIA GPUを統合し、AI推論を最適化します。「Attention FFN Disaggregation」と呼ばれる手法を用いることで、システムはハードウェアの強みに基づいてタスクを委譲します。GPUは動的なアテンション計算を管理し、新しいLP30 LPUチップは静的なフィードフォワードネットワーク(FFN)計算を処理することで、インタラクティブなAIアプリケーションにおける応答遅延を大幅に短縮します。
投資家にとって重要な点は、LP30チップがSamsungのSF4プロセスで製造されており、高帯域幅メモリ(HBM)を使用しないことです。これは、新しいLPXシステムがNVIDIAにとって生産能力と収益の増分を表すことを意味します。なぜなら、このシステムは同社の希少なTSMC N3製造スロットやHBM供給を消費しないため、容易に複製できない重要な競争優位性となるからです。
Vera ETL256ラックに256個のCPUを搭載し、AIのボトルネックを解消
大規模AI運用における増大するCPUボトルネックに対処するため、NVIDIAはVera ETL256を発表しました。この高密度液冷システムは、新しいVera CPUを256個1つのラックに搭載しています。この設計は、データ準備や強化学習などのタスクにおける大規模な並列処理要件を直接的にターゲットとしており、これらのタスクではCPUの可用性がGPU全体の利用率を制限する可能性があります。ラック内のすべての接続を銅ケーブルで実現できるレベルまで計算密度を統合することで、NVIDIAはラック内のより高価な光トランシーバーの必要性を排除し、液冷のコストを相殺しています。
CPUラックと並行して、NVIDIAはSTXストレージリファレンスアーキテクチャを発表しました。これはAI向けストレージシステムの構成を標準化し、必要なドライブ、Vera CPU、BlueField DPU、およびネットワーキングコンポーネントの組み合わせを指定します。Dell、HPE、IBMを含む主要なストレージベンダーによって支持されているSTXアーキテクチャは、NVIDIAがコンピューティングとネットワーキングからストレージ層への拡大を確固たるものにしています。これはこれまで他の企業が支配していた領域です。
NVIDIA、AIインフラ市場全体の掌握を目指す
LPX、Vera ETL256、STXシステムの統合的な発表は、明確な戦略的転換を示しています。NVIDIAは、市場支配力を拡大する深く統合されたエコシステムを構築し、AIインフラスタック全体を提供するべく積極的に動いています。このプラットフォーム戦略は、CadenceやHPEなどのパートナーがNVIDIAの最新ハードウェアに基づいて構築された新しいソリューションを発表するなど、すでに牽引力を得ています。これらの発表は、NVIDIAがジェンセン・ファンCEOの予測である2027年までに1兆ドル規模のシステム受注を確保するという目標をどのように達成するかの具体的なロードマップを提供します。
CPUおよびストレージ市場に体系的に参入することで、NVIDIAはAIハードウェアへの総支出の中でより大きなシェアを獲得できる立場に自らを置いています。この動きは、これらのセグメントにおける既存のプレーヤーとの競争を激化させ、AI業界の大規模なインフラ構築におけるNVIDIAの中心的なプロバイダーとしての役割を強化します。