알리바바, 자체 AI GPU 대량 생산 돌입
알리바바의 칩 설계 자회사인 T-Head는 자체 개발 그래픽 처리 장치(GPU)의 대량 생산을 시작했다. 회사는 이 칩이 대규모 모델의 집중 훈련부터 미세 조정 및 추론에 이르는 AI 워크로드의 전체 스펙트럼을 처리하도록 설계되었다고 발표했다. 새로운 하드웨어는 주류 AI 프레임워크와 호환되어 알리바바의 장기적인 컴퓨팅 공급을 강화한다.
이러한 발전은 알리바바가 수직 통합된 AI 스택을 구축하기 위한 전략의 초석이다. 독점 GPU를 자사의 첸원(Qianwen) 대규모 언어 모델 및 클라우드 컴퓨팅 인프라와 결합함으로써, 회사는 고성능, 비용 효율적인 AI 서비스를 제공하는 것을 목표로 한다. 이 움직임은 기술적 자급자족을 향한 중요한 단계로, 외국 칩 공급업체에 대한 의존도를 줄이고 빠르게 성장하는 클라우드 사업을 지정학적 공급망 위험으로부터 보호한다.
자체 칩, 엔비디아의 90% 시장 점유율 위협
알리바바의 실리콘 독립 추진은 엔비디아의 시장 지배력에 대한 더 광범위한 산업 반란의 일부이다. 미국 수출 통제가 중국의 국내 칩 노력을 가속화하는 동안, 엔비디아의 가장 큰 미국 고객조차도 자체 대안을 구축하고 있다. 구글, 마이크로소프트, 메타를 포함한 기술 거인들은 칩 제조업체가 추정하는 AI 하드웨어 시장의 90% 점유율에 도전하기 위해 맞춤형 AI 가속기에 수십억 달러를 투자하고 있다.
주요 동인은 비용이다. AI 워크로드가 추론(훈련된 모델을 실행하는 과정)으로 전환됨에 따라, 기업들은 엔비디아의 범용 GPU가 항상 가장 경제적인 선택은 아니라는 것을 발견하고 있다. 예를 들어, 구글의 맞춤형 텐서 처리 장치(TPU)는 엔비디아의 동급 서버보다 30-44% 낮은 총 소유 비용을 제공하는 것으로 알려졌다. 이 추세에 대한 시장의 민감도는 매우 높다. 메타가 구글의 TPU를 탐색하고 있다는 보도는 단 한 번의 거래 세션에서 엔비디아의 시가총액에서 약 2500억 달러를 지워버렸다.
2030년까지 AI 지출의 75%를 추론 워크로드가 주도
맞춤형 칩으로의 전략적 전환은 인공지능의 변화하는 경제성과 직접적으로 관련되어 있다. 뱅크오브아메리카 애널리스트에 따르면, AI 추론은 오늘날 데이터 센터 AI 지출의 약 50%에서 2030년까지 75%로 확대될 것으로 예상된다. 알리바바와 그 미국 파트너의 맞춤형 칩은 이 고성장 부문의 성능과 비용을 최적화하도록 명시적으로 설계되었다.
이러한 추세는 엔비디아의 부상을 이끌었던 "만능 칩" 모델에 대한 근본적인 도전이 된다. 엔비디아가 제품 라인을 다각화하여 대응하고 있지만, 경쟁 환경은 빠르게 파편화되고 있다. 주요 클라우드 제공업체와 기술 기업들이 이제 자체 실리콘을 설계함에 따라, 훈련을 넘어 대규모 배포로 빠르게 나아가고 있는 시장을 위해 더 저렴하고 효율적인 하드웨어를 제공하기 위한 경쟁이 치열하다.