インテルは、CPUとカスタムIPUをAIインフラの中心として再定義しており、これは今週市場から大きな支持を得たGPU中心の業界の潮流に対する直接的な挑戦です。
戻る
インテルは、CPUとカスタムIPUをAIインフラの中心として再定義しており、これは今週市場から大きな支持を得たGPU中心の業界の潮流に対する直接的な挑戦です。

インテル コーポレーションとGoogleは、次世代のAIおよびクラウドインフラストラクチャを構築するための数年にわたる協力を深めています。これは、グラフィックス・アクセラレータが優位を占める市場において、中央処理装置(CPU)の戦略的役割を強化する動きです。この提携により、インテルの株価は今週約33%上昇し、同社にとって一連の注目すべき勝利を締めくくるものとなりました。
インテルのリップブー・タンCEOは、プレスリリースで次のように述べています。「AIは、インフラの構築と拡張の方法を再編しています。AIの拡張には、アクセラレータ以上のもの、つまりバランスの取れたシステムが必要です。CPUとIPUは、現代のAIワークロードが要求するパフォーマンス、効率性、柔軟性を提供するために不可欠です。」
拡張された合意に基づき、Google Cloudは、AIおよび汎用ワークロード向けのC4およびN4インスタンス全体で、新しいXeon 6チップを含むインテルのXeonプロセッサの導入を継続します。Googleは、Xeon 6ベースのC4インスタンスが、以前のシステムと比較して2.0倍以上の総所有コスト(TCO)メリットをもたらすと主張しています。また、両社は、データセンターのタスクをメインCPUからオフロードするために設計された、ASICベースのカスタム・インフラストラクチャ・プロセッシング・ユニット(IPU)の共同開発も拡大しています。
投資家にとって、この提携は、大規模なAI推論のためのインフラが、GPUだけでは対処できないCPU独自のパフォーマンス重視の市場を創出するというインテルの主張を裏付けるものです。AI市場の重心がトレーニングから推論へと移るにつれ、基盤となるCPUアーキテクチャの効率性が経済的な最優先事項となり、この力学がインテルのXeonロードマップに対するGoogleの複数世代にわたるコミットメントを支えています。
## 「バランスの取れたシステム」の根拠
インテルとGoogleの提携の核心は、四半期売上高が681億ドルに達し、エヌビディア(Nvidia)を圧倒的な市場地位へと押し上げたGPU中心のAIインフラモデルに対する直接的な回答です。GPUはAIモデルの重い計算を伴うトレーニングに不可欠ですが、インテルとGoogleは、これらのモデルを効率的かつ大規模に展開するために必要な「バランスの取れたシステム」には、CPUと専用のIPUが不可欠であると主張しています。
GoogleのAIインフラ担当チーフ・テクノロジストであるアミン・ヴァーダット氏は、需要側の論理を次のように説明しました。「CPUとインフラストラクチャの高速化は、トレーニングのオーケストレーションから推論、展開に至るまで、依然としてAIシステムの基礎です。」特にIPUは、ネットワーク、ストレージ、セキュリティのオーバーヘッドという高価なCPUサイクルから解放し、アプリケーションのワークロードに純粋に集中できるようにすることで、データセンターの経済性を向上させます。このオフロードは、インフラ管理が計算リソースのかなりの部分を消費する可能性があるハイパースケール環境において極めて重要です。
## インテルにとって戦略的な一週間
Google Cloudの発表は、インテルにとって一週間で2つ目の大きな戦略的勝利でした。その2日前、同社はテスラ、スペースX、xAIによる250億ドルの合弁事業である「Terafab(テラファブ)」の主要なファウンドリ・パートナーに指名されました。この契約により、インテルの最先端である18Aプロセスノードがプロジェクトに投入されることになり、長らく遅れていた同社の製造ロードマップに対する重要な信頼の証となりました。
これら2つの発表を合わせると、一貫した2トラック戦略が見て取れます。Googleのようなハイパースケール・パートナーとのXeon CPUおよびカスタムIPUの長期需要を確保する一方で、テスラのような企業や、潜在的にはエヌビディアやAMDのような競合他社向けの次世代カスタムAIシリコンを製造するためのファウンドリ事業を構築するというものです。インテル株の週間33%上昇という市場の反応は、投資家が数年ぶりに同社の復活ストーリーを信じ始めていることを示唆しています。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。