主なポイント:
- Uber は AWS との契約を拡大し、Graviton CPU の採用と Trainium3 AI チップのテストを開始。
- この動きは、エヌビディアに代わるアマゾンのカスタムシリコンに対する企業の信頼が高まっていることを示唆。
- この契約により、Uber の長期的な運用コストが削減され、AI ワークロードの効率が向上する可能性がある。
主なポイント:

Uber はアマゾンのカスタムシリコンへの依存を深めており、AWS Graviton プロセッサの使用を拡大し、エヌビディアの支配的なチップに対抗する Trainium3 AI アクセラレータをテストする最新の大手テック企業となりました。
「コア・ワークロードを Graviton に移行したことで、すでに計算コストを 15% 削減できました」と Uber のエンジニアリング・リードは述べています。「Trainium3 のテストは、コストとパフォーマンスの両面で機械学習モデルを最適化するための次のステップです」
4 月 7 日に発表されたこの契約により、Uber は配車サービスや物流サービスの基幹システムの多くを ARM ベースの Graviton CPU に移行させます。アマゾンは Trainium3 の完全な仕様を公開していませんが、大規模言語モデルのトレーニングにおいて、同等のエヌビディア製 GPU よりも価格性能比が最大 40% 向上すると主張しています。
Uber のような大規模ユーザーによる採用は、アマゾン (AMZN) の数十億ドル規模のチップ戦略にとって重要な検証材料であり、AI データセンターで 80% のシェアを誇るエヌビディア (NVDA) にとって高まる脅威となります。Uber (UBER) にとっては、特定の技術ベンダーへの依存を減らし、インフラコストを制御するための長期的な戦略を意味します。
この戦略的拡大の背景には、Uber の価格設定、ルーティング、配車アルゴリズムに不可欠な AI モデルのトレーニングと実行に関連する膨大な計算コストがあります。アマゾンのカスタム設計チップを使用することで、Uber はより費用対効果が高く電力効率の良いインフラストラクチャ・スタックを構築し、エヌビディアやインテルといったサードパーティ・ベンダーの高価な汎用ハードウェアへの依存を軽減することを目指しています。
アマゾンのカスタムシリコンへの注力は、ハードウェアの主導権を握り、運用コストを削減しようとするグーグルやマイクロソフトの取り組みと一致しています。エヌビディアの H100 や次世代の B200 GPU は依然として高性能 AI トレーニングの業界標準ですが、推論や特定のトレーニング・ワークロードにおいて「十分な性能」を持ち、より費用対効果の高い自社製代替品(Trainium など)が台頭していることは、無視できない流れとなっています。この傾向は、AI ハードウェアにおけるエヌビディアの独占状態を切り崩す可能性があります。
投資家にとって、これは AI チップ市場が「勝者総取り」のシナリオではないことを示唆しています。Uber のような主要クライアントからワークロードを獲得できるアマゾンの能力は、同社のチップ戦略に信頼性を与え、AWS の成長ストーリーを後押しする可能性があります。膨大なバックオーダーに支えられたエヌビディアの収益に対する即座の脅威ではありませんが、長期的なリスクを浮き彫りにしています。モルガン・スタンレーのアナリストは、企業による代替 AI チップの採用が、現在実績利益の 70 倍以上で取引されているエヌビディアの評価倍率の上限を抑える可能性があると指摘しています。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。