核心摘要:
- OpenAI 和 Anthropic 等领先的 AI 公司在 IPO 前面临巨额计算成本,每年可能超过 10 亿美元。
- GPU 和云服务的高额现金消耗使长期盈利能力和公开市场估值受到严格审查。
- 随着下一代模型的培训费用持续升级,投资者正在质疑其实现正向现金流的路径。
核心摘要:

(P1) 构建更强大人工智能的竞赛正在为 OpenAI 和 Anthropic 等行业领导者带来 IPO 前的财务压力,年度计算成本目前估计将超过 10 亿美元,为其通往公开市场的道路蒙上了阴影。
(P2) “这些公司最大的单项支出就是计算,”一位持有 AI 领域头寸的风险投资家表示。“这是一场资本支出军备竞赛,公开市场投资者将要求看到一条清晰的盈利路径,而这在未来三到五年内可能根本不存在。”
(P3) 报告指出,训练一个下一代大语言模型的成本可能高达 2 亿美元以上,比两年前增加了 4 倍。Anthropic 的最新文件显示,其每月现金消耗率接近 8000 万美元,其中超过 60% 分配给了亚马逊云服务(AWS)和谷歌云的云计算服务。这些支出主要用于获取数以万计的高端 GPU(如英伟达的 H100),这些芯片对于模型训练和推理至关重要。
(P4) 巨大的资本消耗威胁到投资者的热情,而这本应是自 2021 年以来规模最大的两场科技股 IPO。虽然 OpenAI 的营收正在增长,但其运营成本增长得更快,这种动态可能导致其在公开市场上出现折价融资(down-round)或低于预期的估值。对于投资者而言,关键问题在于订阅和 API 收入是否能超过底层计算能力巨大且仍在上涨的成本。
财务压力的核心在于全球对少数芯片设计商(主要是英伟达)的依赖。该公司的 H100 和即将推出的 B200 GPU 已成为 AI 训练的事实标准,赋予了英伟达强大的定价权。一家半导体研究机构的最新分析估计,单颗 H100 GPU 的材料清单(BOM)成本约为 3000 美元,而其售价高达 30000 美元。这种 10 倍的加价直接损害了 AI 模型提供商的盈利能力。OpenAI 和 Anthropic 都在探索定制芯片设计以减少这种依赖,但此类项目是长期工作,结果具有不确定性,需要数十亿美元的研发投入,且至少需要三年时间才能达到生产规模。
这些 AI 领导者面临的核心挑战是其商业模式下的成本随使用量直接扩展。模型执行的每一次查询或任务都会产生推理成本,这是对所用计算能力的虽然微小但很显著的收费。随着这些模型变得更加强大并集成到更多应用中,总成本可能会激增,从而可能使盈利能力永远无法实现。微软作为 OpenAI 的主要投资者,通过其 Azure 云平台协助吸收了部分成本,但 Anthropic 等公司缺乏这样财力雄厚的合作伙伴,使其在上市前的财务基础更加脆弱。市场目前正在观察这些公司能否通过优化模型效率、从云提供商处获得更优惠的条款,或证明一种最终能跑赢其巨大运营支出的营收模式。
本文仅供参考,不构成投资建议。