主なポイント
- Vera Rubinの試作は6月に開始され、Microsoft、Google、Metaなどのクラウドプロバイダーへの初回出荷は7月から始まります。
- 加速されたスケジュールにより、発表は当初の予定より7ヶ月前倒しされ、2026年第3四半期に量産が拡大される予定です。
- このプラットフォームはTSMCの3nmプロセスを採用し、HBM4メモリを搭載しており、サーバーラック1台あたりのコストは約1億8,000万ドルと推定されています。
主なポイント

エヌビディア(Nvidia Corp.)は、次世代AIプラットフォーム「Vera Rubin」の立ち上げを加速させています。試作は6月に、主要クラウドプロバイダーへの初回出荷は当初の2027年の予定から7ヶ月前倒しして7月に開始される予定です。この動きは、より強力なコンピューティングに対する強烈な需要を反映しており、エヌビディアが1兆ドルに達すると推定するAIインフラ市場での支配力を固める狙いがあります。
「AIは現代における最大規模のインフラ構築を牽引している」と、エヌビディアの創業者兼CEOであるジェンスン・フアン氏は3月のGTCカンファレンスで述べました。今回のVera Rubinのスケジュール短縮は、その発言を裏付けるものです。新プラットフォームを最初に受け取る顧客には、Microsoft、Google、Amazon、Meta、Oracleが含まれます。
Vera Rubinプラットフォームは、TSMCの3ナノメートルプロセスノードを採用し、GPU用に新しいHBM4メモリを搭載した大きな技術的進歩を象徴しています。台湾の経済日報が引用した業界関係者によると、AIサーバーラック1台あたりの価格は約180万ドルに達する可能性があるとのことです。量産は2026年第3四半期に開始される見込みで、サプライチェーンパートナーのFoxconn、Quanta、Wistronが本格的な展開に向けて準備を進めています。
この積極的な発表スケジュールは、エヌビディアの株価が52週高値圏で取引される中で発表されました。予想株価収益率(PER)は25.4倍で、2024年や2025年初頭の倍率を下回っています。現在増産中のBlackwellアーキテクチャに続くVera Rubinプラットフォームの加速は、フアン氏が2027年末までに1兆ドル以上と見積もる需要パイプラインを満たすために不可欠です。
エヌビディアの戦略は単なるチップの販売にとどまりません。同社はAIサプライチェーン全体の構築に対して積極的に資金提供を行っています。2026年だけでも、データセンター事業者のIRENやガラスメーカーのCorningとの数十億ドル規模の契約を含め、400億ドル以上の投資を行いました。これにより、一部のアナリストからは、エヌビディアが自社のGPUを購入する企業に資金を提供する「循環投資」への懸念も浮上しています。Wedbushのアナリスト、マシュー・ブライソン氏は、この点に注目しつつも、投資がうまく実行されれば「競争上の堀」を生み出す可能性もあると示唆しています。
Vera Rubinのスケジュール短縮は、すでにフル稼働しているサプライチェーンに多大な圧力をかけています。TSMCは今年初め、3nmプロセスでRubinチップの量産を開始しました。このプラットフォームがHBM4メモリやVera CPU向けのSOCAMM2 LPDDR5Xメモリといった最先端コンポーネントに依存していることは、メモリサプライヤーにとって大きな原動力となります。最近のエヌビディアとCorningとの32億ドルの戦略的提携は、サーバーラック内のエネルギー効率とデータ伝送速度の向上に重点を置いていることを示しており、数千本の銅線ケーブルをより効率的なガラス繊維に置き換える計画です。
投資家は、5月20日に発表されるエヌビディアの2027年度第1四半期決算を注視することになります。ウォール街のコンセンサスでは、第2四半期の売上高は約870億ドルと予想されており、この水準以上のガイダンスが示されれば、同社の巨大な需要パイプラインが予定通りに具体的な成果に結びついていることが確認されるでしょう。
この記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。