核心摘要:
- OpenAI 和 Anthropic 等領先的 AI 公司在 IPO 前面臨巨額計算成本,每年可能超過 10 億美元。
- GPU 和雲服務的高額現金消耗使長期盈利能力和公開市場估值受到嚴格審查。
- 隨著下一代模型的培訓費用持續升級,投資者正在質疑其實現正向現金流的路徑。
核心摘要:

(P1) 構建更強大人工智能的競賽正在為 OpenAI 和 Anthropic 等行業領導者帶來 IPO 前的財務壓力,年度計算成本目前估計將超過 10 億美元,為其通往公開市場的道路蒙上了陰影。
(P2) 「這些公司最大的單項支出就是計算,」一位持有 AI 領域頭寸的風險投資家表示。「這是一場資本支出軍備競賽,公開市場投資者將要求看到一條清晰的盈利路徑,而這在未來三到五年內可能根本不存在。」
(P3) 報告指出,訓練一個下一代大語言模型的成本可能高達 2 億美元以上,比兩年前增加了 4 倍。Anthropic 的最新文件顯示,其每月現金消耗率接近 8000 萬美元,其中超過 60% 分配給了亞馬遜雲服務(AWS)和谷歌雲的雲計算服務。這些支出主要用於獲取數以萬計的高端 GPU(如英偉達的 H100),這些芯片對於模型訓練和推理至關重要。
(P4) 巨大的資本消耗威脅到投資者的熱情,而這本應是自 2021 年以來規模最大的兩場科技股 IPO。雖然 OpenAI 的營收正在增長,但其運營成本增長得更快,這種動態可能導致其在公開市場上出現折價融資(down-round)或低於預期的估值。對於投資者而言,關鍵問題在於訂閱和 API 收入是否能超過底層計算能力巨大且仍在上漲的成本。
財務壓力的核心在於全球對少數芯片設計商(主要是英偉達)的依賴。該公司的 H100 和即將推出的 B200 GPU 已成為 AI 訓練的事實標準,賦予了英偉達強大的定價權。一家半導體研究機構的最新分析估計,單顆 H100 GPU 的材料清單(BOM)成本約為 3000 美元,而其售價高達 30000 美元。這種 10 倍的加價直接損害了 AI 模型提供商的盈利能力。OpenAI 和 Anthropic 都在探索定制芯片設計以減少這種依賴,但此類項目是長期工作,結果具有不確定性,需要數十億美元的研發投入,且至少需要三年時間才能達到生產規模。
這些 AI 領導者面臨的核心挑戰是其商業模式下的成本隨使用量直接擴展。模型執行認的每一次查詢或任務都會產生推理成本,這是對所用計算能力的雖然微小但很顯著的收費。隨著這些模型變得更加強大並集成到更多應用中,總成本可能會激增,從而可能使盈利能力永遠無法實現。微軟作為 OpenAI 的主要投資者,通過其 Azure 雲平台協助吸收了部分成本,但 Anthropic 等公司缺乏這樣財力雄厚的合作夥伴,使其在上市前的財務基礎更加脆弱。市場目前正在觀察這些公司能否通過優化模型效率、從雲提供商處獲得更優惠的條款,或證明一種最終能跑贏其巨大運營支出的營收模式。
本文僅供參考,不構成投資建議。