Googleは、カスタムAIシリコンを初めて2つの異なる製品ラインに分割しました。これは、単なるモデルの学習から、より計算負荷の高いモデルの実行(推論)へと業界全体がシフトしていることへの直接的な対応です。同社のCloud Nextカンファレンスで発表された第8世代Tensor Processing Unit(TPU)には、学習用の強力なチップと、推論用の効率的な別チップが含まれており、AIハードウェア市場におけるエヌビディア(Nvidia Corp.)の支配に挑戦する構えです。
Google CloudのCEOであるトーマス・クリアン氏は記者団に対し、「2つの新しいチップを開発するという決定は『自然な進化』だった」と述べ、新チップが電力効率を重視して設計されていることを付け加えました。「学習と推論の両方の規模が拡大し続ける中で、電力効率が制約になると感じました」
新ラインアップには、大規模AIモデルの集中的な学習プロセス向けに設計された「TPU 8t」と、回答の生成やアクションの実行のためにモデルを動かす、負荷は低いが量が多い推論タスクに最適化された「TPU 8i」があります。Googleによると、昨年の第7世代「Ironwood」TPUから大幅な進歩を遂げた両チップは、今年後半に一般提供が開始される予定です。特にTPU 8iは高帯域幅メモリ(HBM)を大幅に増強しており、エージェンティックAIアプリケーションの速度を低下させる要因となる「メモリの壁」問題に対処しています。
この戦略的な分割は、人工知能の次の大きな波が「エージェント」、つまりユーザーに代わって推論、計画、多段階のタスクを実行できる自律型AIシステムになるとのGoogleの賭けを反映しています。Googleのインフラ責任者であるアミン・ヴァハダット氏とマーク・ローマイヤー氏はブログ投稿で、「AIは質問に答えることから、推論し行動を起こすことへと進化している」と述べています。このシフトには膨大な量の推論計算が必要であり、これはエヌビディアも新チップやライセンス契約を通じてターゲットにしている市場セグメントです。
このエージェント化への移行を加速させるため、GoogleはAIエージェントの構築と管理のための統合システム「Gemini Enterprise Agent Platform」も立ち上げました。これには、アクセンチュア、デロイト、オラクルなどのパートナーがこれらのソリューションを構築・導入するのを支援するための新たな7億5,000万ドルの基金が裏付けとなっています。このプラットフォームでは、Google独自のGeminiファミリーや、Google Cloud TPUの主要顧客であるAnthropicなどのサードパーティ製モデルを含む、200以上のAIモデルへのアクセスが提供されます。
より高性能な自社製シリコンを構築する動きは、財務的に大きな影響を与える可能性があります。AI需要に支えられ、Google Cloudの2025年第4四半期の売上高は48%増の177億ドルに急増しました。エヌビディアへの依存を減らすことができるカスタムチップを開発することで、Googleはコストを削減し、利益率を向上させる可能性があります。モルガン・スタンレーは12月のメモで、50万個のTPUチップを販売すれば、2027年のGoogleのバランスシートに約130億ドルの増収をもたらすと試算しています。
新しいチップは、エージェント対応の包括的なテクノロジースタックを作成することを目的とした一連の発表の一部です。これには、AIネイティブのデータアーキテクチャである「Agentic Data Cloud」や、最近買収したWizと共に開発した新しいAI搭載サイバーセキュリティソリューションが含まれます。カスタムハードウェアからエージェント構築プラットフォームまで、スタック全体をコントロールすることで、Googleは次世代AI時代の基礎インフラプロバイダーとなるべく強力な攻勢をかけています。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。