主な要点:
- OpenAIやAnthropicなどの主要AI企業は、IPOを前に年間10億ドルを超える可能性のある莫大なコンピューティングコストに直面しています。
- GPUやクラウドサービスへの多額の資金燃焼(キャッシュバーン)により、長期的な収益性と公開市場での評価が厳しい監視下に置かれています。
- 次世代モデルのトレーニング費用が高騰し続ける中、投資家はプラスのキャッシュフローに至る道筋に疑問を呈しています。
主な要点:

(P1) より強力な人工知能を構築するための競争は、OpenAIやAnthropicのようなリーダー企業にとってIPO前の財務的な逼迫を招いています。年間コンピューティングコストは現在、10億ドルを超えると推定されており、公開市場への道筋に影を落としています。
(P2) 「これらの企業にとって最大の支出項目はコンピューティングです」と、AIセクターに投資しているあるベンチャーキャピタリストは述べています。「これは資本支出の軍拡競争であり、公開市場の投資家は、今後3年から5年は存在しないかもしれない明確な収益化への道を求めるでしょう。」
(P3) 報告書によると、次世代の単一の大規模言語モデルをトレーニングするコストは2億ドル以上に達する可能性があり、これはわずか2年前の4倍に相当します。Anthropicの最新の報告では、月間の資金燃焼(キャッシュバーン)率が8000万ドルに迫っており、その60%以上がAmazon Web ServicesやGoogle Cloudからのクラウドコンピューティングサービスに割り当てられています。この支出の大部分は、モデルのトレーニングと推論に不可欠なNvidiaのH100など、数万個のハイエンドGPUへのアクセスのためのものです。
(P4) 膨大な資本消費は、2021年以来最大規模のハイテクIPOになると期待されている2社に対する投資家の熱意を冷ます恐れがあります。OpenAIの収益は成長していますが、運営コストはそれを上回る速さで増加しており、この力学は公開市場でのダウンラウンドや予想を下回るバリュエーション(企業価値評価)につながる可能性があります。投資家にとっての重要な疑問は、サブスクリプションやAPIの収益が、巨大で依然として上昇し続けている基盤コンピューティング能力のコストを追い越すことができるかどうかです。
財務的負担の中心にあるのは、主にNvidiaをはじめとする少数のチップ設計企業への世界的な依存です。同社のH100や今後発売されるB200 GPUは、AIトレーニングの事実上の標準となっており、Nvidiaに強力な価格決定権を与えています。ある半導体調査会社の最近の分析によると、H100 GPU 1個あたりの部品代(BOM)は約3,000ドルですが、販売価格は3万ドルにも達します。この10倍の上乗せは、AIモデルプロバイダーの収益性に対する直接的な「税金」となっています。OpenAIとAnthropicの両社は、この依存度を減らすためにカスタムチップの設計を模索していますが、そのようなプロジェクトは不確実な結果を伴う長期的な取り組みであり、数十億ドルの研究開発費と生産規模に達するまでに少なくとも3年を必要とします。
これらのAIリーダーにとっての核心的な課題は、コストが利用量に直接比例して拡大するビジネスモデルです。モデルによって実行されるすべてのクエリやタスクには、使用されるコンピューティングパワーに対して、小さいながらも無視できない推論コストが発生します。これらのモデルがより高性能になり、より多くのアプリケーションに統合されるにつれて、総コストは膨れ上がる可能性があり、収益化を永久に手の届かないものにする恐れがあります。OpenAIの主要投資家であるマイクロソフトは、Azureクラウドプラットフォームを通じてこれらのコストの一部を吸収するのを支援していますが、Anthropicなどはそのような資金力のあるパートナーを欠いており、株式公開を前に財務基盤がより不安定になっています。市場は現在、これらの企業がモデルを効率化し、クラウドプロバイダーからより有利な条件を引き出せるか、あるいは膨大な運営支出をついに上回る収益モデルを証明できるかを見守っています。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。