주요 요점:
- 우버는 AWS 계약을 확대하여 Graviton CPU를 도입하고 Trainium3 AI 칩을 테스트합니다.
- 이번 조치는 엔비디아를 넘어 아마존의 맞춤형 실리콘에 대한 기업의 신뢰가 커지고 있음을 시사합니다.
- 이 계약은 우버의 장기적인 운영 비용을 낮추고 AI 워크로드 효율성을 개선할 수 있습니다.
주요 요점:

우버가 아마존의 맞춤형 실리콘에 대한 의존도를 높이며 AWS Graviton 프로세서 사용을 확대하고, 엔비디아의 독점적 칩에 대한 직접적인 경쟁자인 Trainium3 AI 가속기를 테스트하는 최신 주요 IT 기업이 되었습니다.
우버의 엔지니어링 리드는 "핵심 워크로드를 Graviton으로 전환하면서 이미 컴퓨팅 비용을 15% 절감했습니다"라며, "Trainium3를 테스트하는 것은 비용과 성능 측면에서 머신러닝 모델을 최적화하기 위한 다음 단계입니다"라고 말했습니다.
4월 7일 발표된 이번 계약을 통해 우버는 핵심 승차 공유 및 물류 서비스의 더 많은 부분을 ARM 기반 Graviton CPU로 마이그레이션할 예정입니다. 아마존은 Trainium3의 세부 사양을 모두 공개하지는 않았으나, 대규모 언어 모델 교육 시 유사한 엔비디아 GPU보다 가격 대비 성능이 최대 40% 더 우수하다고 주장합니다.
우버와 같은 대용량 사용자의 채택은 아마존(AMZN)의 수십억 달러 규모 칩 전략에 대한 중요한 검증이며, AI 데이터 센터 시장에서 80%의 점유율을 차지하고 있는 엔비디아(NVDA)에 대한 상승하는 경쟁적 위협입니다. 우버(UBER)에게 이는 기술 공급업체에 대한 의존도를 줄이고 인프라 비용을 제어하기 위한 장기적인 포석입니다.
이러한 전략적 확장은 우버의 가격 책정, 경로 지정 및 배차 알고리즘에 필수적인 AI 모델의 학습 및 실행과 관련된 막대한 컴퓨팅 비용에 의해 추진되었습니다. 아마존의 맞춤형 설계 칩을 사용함으로써 우버는 엔비디아 및 인텔과 같은 제3자 공급업체의 더 비싼 범용 하드웨어에 대한 의존도를 줄이고, 보다 비용 효율적이고 전력 효율적인 인프라 스택을 구축하는 것을 목표로 합니다.
맞춤형 실리콘을 향한 아마존의 추진은 하드웨어 운명을 스스로 통제하고 운영 비용을 낮추려는 구글과 마이크로소프트의 노력과 일맥상통합니다. 엔비디아의 H100 및 출시 예정인 B200 GPU가 고성능 AI 학습의 산업 표준으로 남아 있지만, 추론 및 특정 학습 워크로드를 위한 Trainium과 같은 '충분히 좋고' 비용 효율적인 사내 대안의 등장이 새로운 흐름이 되고 있습니다. 이러한 추세는 AI 하드웨어 시장에서 엔비디아의 거의 독점적인 지위를 조금씩 위협하고 있습니다.
투자자들에게 이는 AI 칩 시장이 승자 독식의 시나리오가 아님을 시사합니다. 우버와 같은 주요 고객으로부터 워크로드를 확보할 수 있는 아마존의 능력은 칩 야망에 신뢰성을 부여하며 AWS 성장 내러티브를 강화할 수 있습니다. 막대한 수주 잔고로 확보된 엔비디아의 매출에 즉각적인 위협은 아니지만 장기적인 리스크를 부각시킵니다. 모건스탠리 분석가들은 기업의 대체 AI 칩 채택이 현재 과거 수익의 70배 이상에서 거래되는 엔비디아의 밸류에이션 배수를 제한할 수 있다고 언급했습니다.
이 기사는 정보 제공 목적으로만 제공되며 투자 조언을 구성하지 않습니다.