Key Takeaways:
- 모건스탠리는 AI 에이전트로의 전환에 힘입어 서버 CPU 시장이 2030년까지 1,100억 달러에 달할 것으로 전망했습니다.
- AI 서버 내 CPU 대 GPU 비율이 1:12에서 1:2까지 좁혀지며 CPU 수요가 급격히 증가할 것으로 예상됩니다.
- 보고서는 GPU를 넘어 DRAM, ABF 기판 및 기타 부품에서의 새로운 병목 현상과 투자 기회를 식별했습니다.
Key Takeaways:

모건스탠리의 새로운 보고서는 AI 가치 사슬이 구조적 변화를 겪고 있으며, 자본이 단순한 GPU 경쟁에서 풀스택 시스템 접근 방식으로 재지향되고 있다고 주장합니다.
모건스탠리의 최신 보고서에 따르면 인공지능에 대한 투자 내러티브는 그래픽 처리 장치(GPU)에 대한 단일한 집중을 넘어서고 있습니다. 은행은 AI가 콘텐츠 생성에서 에이전트를 통한 작업 자동화로 진화함에 따라 업계의 주요 병목 현상이 원시 연산에서 시스템 레벨 오케스트레이션으로 이동하고 있으며, 이는 2030년까지 최대 1,100억 달러 규모의 서버 CPU 시장을 창출할 것이라고 주장합니다.
모건스탠리의 연구 분석가인 숀 킴(Shawn Kim)은 보고서에서 "지능형 에이전트 AI는 컴퓨팅에서 오케스트레이션으로의 구조적 전환을 의미한다"고 썼습니다. 이러한 전환은 GPU가 핵심 구성 요소로 남아 있겠지만, 더 광범위한 구성 요소들이 성능에 필수적이 됨에 따라 GPU가 AI 예산과 프리미엄 전체를 지배하지는 않게 될 것임을 의미합니다.
은행의 분석에 따르면 AI 에이전트의 부상은 2030년까지 서버 CPU에 대해 325억 달러에서 600억 달러의 점진적인 시장을 창출할 것으로 예상됩니다. 이는 전형적인 1:12 구성에서 1:2까지 좁혀지는 CPU 대 GPU 비율의 변화와 같은 서버 아키텍처의 근본적인 변화에 기인합니다. 또한 보고서는 이 변화가 같은 해까지 15~45 엑사바이트의 새로운 DRAM 수요를 창출할 것으로 예측했습니다.
투자자들에게 이 보고서는 AI 자본 지출의 수혜자가 곧 소수의 칩 거물들을 넘어 확장될 것임을 시사합니다. 다음 번 엄청난 수익은 공급망 내에서 병목 현상이 가장 먼저 발생하고 확장이 가장 어려운 '지원 부품(enabling components)', 예를 들어 첨단 기판, 메모리, 웨이퍼 제조 역량 등에서 나올 수 있습니다.
단일 고강도 작업에 GPU를 크게 의존하는 생성형 AI와 달리, AI 에이전트는 다단계 워크플로우를 통해 작동합니다. 이 프로세스에는 계획, 데이터 검색, 외부 도구 호출 및 반복적인 미세 조정이 포함되며, 이러한 작업은 본질적으로 CPU에 더 적합합니다. 모건스탠리의 핵심 결론은 에이전트 기반 시스템이 더 많은 단계, 상태 및 조정을 도입하여 CPU의 역할을 보조 부품에서 미션 크리티컬한 오케스트레이터로 격상시킨다는 것입니다.
이는 데이터 센터 아키텍처에 두 가지 주요 결과를 초래합니다. 첫째, GPU 대비 CPU 비율이 체계적으로 상승할 것입니다. 엔비디아 자체 로드맵에 따르면 루빈(Rubin) 플랫폼에서 CPU 대 GPU 비율이 1:2로 이동하고, 향후 '루빈 울트라' 구성에서는 잠재적으로 2:1 비율이 될 수 있음을 시사합니다. 둘째, DRAM은 단순한 용량 부품에서 에이전트 워크플로우의 컨텍스트와 메모리에 필요한 방대한 양의 데이터를 보유하는 시스템 성능 및 처리량의 핵심 동인으로 업그레이드될 것입니다.
모건스탠리 보고서는 이러한 아키텍처 변화로부터 가치를 포착할 준비가 된 공급망의 몇 가지 핵심 영역을 식별합니다. 특히 공급이 부족하고 검증 주기가 길어 가격 결정력이 높은 부품에 대해 낙관적입니다.
보고서는 AMD 및 인텔과 같은 CPU 제조업체에 대한 구조적 이점을 보고 있지만, 자본 지출에서 수익으로의 경로가 더 직접적이라고 판단되는 엔비디아 및 브로드컴과 같은 회사를 통해 에이전트 테마에 노출되는 것을 선호하여 두 회사 모두에 대해 '비중 유지(Equal-weight)' 등급을 유지하고 있습니다.
이 기사는 정보 제공 목적으로만 작성되었으며 투자 조언을 구성하지 않습니다.