핵심 요약:
- OpenAI 및 Anthropic과 같은 주요 AI 기업들은 IPO를 앞두고 연간 10억 달러를 초과할 수 있는 막대한 컴퓨팅 비용에 직면해 있습니다.
- GPU 및 클라우드 서비스에 대한 높은 현금 소진율은 장기적인 수익성과 공개 시장 가치 평가에 대한 강한 의구심을 불러일으키고 있습니다.
- 차세대 모델 교육 비용이 계속해서 상승함에 따라 투자자들은 잉여 현금 흐름 확보를 위한 경로에 의문을 제기하고 있습니다.
핵심 요약:

(P1) 더 강력한 인공지능을 구축하기 위한 경쟁이 OpenAI와 Anthropic 같은 선두 주자들에게 IPO 전 재무적 압박을 가하고 있습니다. 연간 컴퓨팅 비용이 현재 10억 달러를 넘어설 것으로 추정되면서 상장으로 가는 길에 그림자가 드리워지고 있습니다.
(P2) "이들 기업에게 가장 큰 단일 비용 항목은 컴퓨팅입니다."라고 AI 분야에 투자하고 있는 한 벤처 캐피털리스트는 말했습니다. "이것은 자본 지출 군비 경쟁이며, 공개 시장 투자자들은 향후 3~5년 동안은 존재하지 않을 수도 있는 명확한 수익 창출 경로를 요구할 것입니다."
(P3) 보고서에 따르면 차세대 대규모 언어 모델 하나를 훈련하는 데 2억 달러 이상의 비용이 들 수 있으며, 이는 불과 2년 전보다 4배 증가한 수치입니다. Anthropic의 최신 보고서에 따르면 월간 현금 소진율은 8,000만 달러에 육박하며, 그 중 60% 이상이 아마존 웹 서비스(AWS) 및 구글 클라우드의 클라우드 컴퓨팅 서비스에 할당됩니다. 이 지출은 주로 모델 교육 및 추론에 필수적인 엔비디아의 H100과 같은 고성능 GPU 수만 개를 확보하기 위한 것입니다.
(P4) 막대한 자본 소비는 2021년 이후 최대 규모의 테크 IPO가 될 것으로 예상되었던 두 기업에 대한 투자자들의 열기를 꺾을 위험이 있습니다. OpenAI의 매출은 성장하고 있지만 운영 비용은 더 빠르게 증가하고 있으며, 이러한 역학 관계는 공개 시장에서 다운 라운드(down-round)나 예상보다 낮은 기업 가치로 이어질 수 있습니다. 투자자들에게 핵심 질문은 구독 및 API 매출이 거대하고 여전히 상승 중인 기초 컴퓨팅 성능 비용을 앞지를 수 있는지 여부입니다.
재무적 부담의 핵심에는 주로 엔비디아와 같은 소수의 칩 설계업체에 대한 글로벌 의존도가 자리 잡고 있습니다. 이 회사의 H100 및 곧 출시될 B200 GPU는 AI 훈련의 사실상 표준이 되었으며, 엔비디아에 막강한 가격 결정력을 부여했습니다. 한 반도체 연구 기관의 최근 분석에 따르면 단일 H100 GPU의 원가(BOM)는 약 3,000달러인 반면, 판매가는 무려 30,000달러에 달합니다. 이 10배의 마진은 AI 모델 제공업체의 수익성에 직접적인 세금으로 작용합니다. OpenAI와 Anthropic 모두 이러한 의존도를 줄이기 위해 맞춤형 칩 설계를 탐색하고 있지만, 이러한 프로젝트는 불확실한 결과가 따르는 장기적인 노력이며, 수십억 달러의 R&D 비용과 생산 단계에 도달하기까지 최소 3년의 시간이 필요합니다.
이들 AI 리더들의 핵심 과제는 비용이 사용량에 따라 직접적으로 확장되는 비즈니스 모델입니다. 모델이 수행하는 모든 쿼리나 작업에는 사용된 컴퓨팅 성능에 대한 작지만 무시할 수 없는 비용인 추론 비용이 발생합니다. 이러한 모델이 더 유능해지고 더 많은 애플리케이션에 통합됨에 따라 총비용은 폭증할 수 있으며, 잠재적으로 수익성을 영원히 달성할 수 없게 만들 수 있습니다. OpenAI의 주요 투자자인 마이크로소프트는 애저(Azure) 클라우드 플랫폼을 통해 이러한 비용의 일부를 흡수하도록 돕고 있지만, Anthropic 등은 이러한 든든한 파트너가 부족하여 상장을 앞두고 재무적 기반이 더 위태로운 상황입니다. 시장은 이제 이들 기업이 모델 효율성을 최적화하거나, 클라우드 제공업체로부터 더 유리한 조건을 확보하거나, 막대한 운영 지출을 마침내 추월할 수 있는 수익 모델을 증명할 수 있을지 주시하고 있습니다.
이 기사는 정보 제공 목적으로만 작성되었으며 투자 조언을 구성하지 않습니다.