Key Takeaways:
- OpenAIは、CerebrasのAIチップを搭載したサーバーを利用するため、3年間で数十億ドル規模の契約に合意しました。
- 200億ドルを超えるこの投資は、主要なAIラボがエヌビディアの代替手段を育成しようとする重大な試みを象徴しています。
- この契約にはOpenAIがチップスタートアップの株式を取得するオプションが含まれており、両者の長期的利益をさらに一致させています。
Key Takeaways:

OpenAIがチップスタートアップのCerebras(セレブラス)からハードウェアを購入するために200億ドル以上を投じるという合意は、AI分野におけるエヌビディアの支配に対するこれまでで最も重大な挑戦の一つであり、専用プロセッサの勢力図を塗り替える可能性を秘めた取引です。Cerebras製チップを搭載したサーバーに関する3年間の契約は、小規模な同社にとって大規模な後ろ盾となるだけでなく、主要なAIラボがエヌビディア製ハードウェアに代わる大規模な選択肢の開発に積極的に資金を投じていることを示唆しています。
この取引は、2026年4月16日にThe Informationが関係者の話として初めて報じました。OpenAI、Cerebrasともに公にコメントはしていませんが、投資の規模は、不可欠なAIインフラのサプライチェーンを多様化しようとする戦略的な動きを強調しています。
契約条件に基づき、OpenAIはCerebrasに対し、同社のチップ搭載サーバーを利用するために3年間で200億ドル以上を支払います。この契約には、OpenAIがCerebrasの株式を取得する規定も含まれており、AI開発者とハードウェアメーカーの間に強力な利害の一致を生み出しています。
この提携は、時価総額が2兆ドルを超えたエヌビディアによるAIチップ市場のほぼ独占状態に圧力をかけることになります。投資家にとって、この取引はリスク回避の傾向を浮き彫りにしており、エヌビディアの長期的な成長期待を和らげる可能性がある一方で、CerebrasやGroq、SambaNova Systemsといった他の代替チップ設計企業に大きな追い風を与えることになります。
Cerebrasは長年、ウェハースケールのチップを製造することで差別化を図ってきました。同社のWafer Scale Engine 3(WSE-3)は、4兆個のトランジスタと90万個のAI最適化コアを備えています。この設計は、H100やB200といった数千個の小型GPUを連結してスパコンを構築するエヌビディアのアプローチとは対照的です。Cerebrasは、自社のアーキテクチャの方が大規模なAIモデルをより効率的に、かつ少ないプログラミングの複雑さで学習できると主張しています。
OpenAIとの契約により、Cerebrasはその技術を最大限に活用できる基盤となる大規模顧客を獲得しました。また、このスタートアップに安定した収益源と研究開発を加速させるリソースをもたらし、エヌビディアの次世代製品との性能差を縮める可能性があります。
大規模言語モデル開発のリーダーであるOpenAIによるこの動きは、業界が単一のサプライヤーへの依存を減らそうと積極的に動いていることを示す明確なシグナルです。これにより、Google、Meta、Microsoftといった他の主要なAIラボやクラウドプロバイダーが、独自の内部チップ開発プロジェクトをさらに加速させたり、他のエヌビディア競合他社と同様の契約を結んだりすることを促す可能性があります。
エヌビディアにとって、巨額のデータセンター収益と比較すれば直接的な財務的影響はわずかですが、戦略的な脅威は重大です。高いマルチプル(株価倍率)で取引されている同社の株価は、圧倒的な市場支配が続くことを織り込んでいます。Cerebrasとの取引は、その「堀(競争優位性)」が乗り越えられないものではないことを示しており、今後数年間で競争の激化と価格低下圧力につながる可能性があります。この展開は、同社の高度なチップ製造を担う主要サプライヤーであるTSMCの株価にも影響を与える可能性があります。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。