AI 수익의 다음 물결은 칩 설계자에서 데이터 센터 구축업체로 이동하고 있으며, 이는 새로운 시장 리더 그룹을 형성하고 있습니다.
뒤로
AI 수익의 다음 물결은 칩 설계자에서 데이터 센터 구축업체로 이동하고 있으며, 이는 새로운 시장 리더 그룹을 형성하고 있습니다.

(블룸버그) -- 인공지능 붐을 주도하는 투자 서사가 주요 칩 제조사를 넘어 대규모 AI 모델을 지원하는 데 필요한 핵심 데이터 센터 인프라로 확장되고 있습니다. Motley Fool의 분석에 따르면 네트워킹 및 특수 추론 하드웨어로의 전환이 AI 슈퍼사이클의 다음 단계로 확인되었습니다.
4월 7일 보고서는 "AI 투자의 첫 번째 물결이 학습용 하드웨어에 집중되었다면, 다음 물결은 이 모든 것을 하나로 묶는 네트워킹과 추론의 효율성에 의해 주도될 것"이라고 밝혔습니다.
이 분석은 데이터 센터 네트워킹 전문가인 Broadcom(AVGO)과 Arista Networks(ANET)를 이 트렌드의 주요 수혜자로 꼽았습니다. 또한 효율성과 낮은 운영 비용이 가장 중요한 AI 추론 시장에서 Alphabet(GOOGL)의 맞춤형 텐서 처리 장치(TPU) 개발이 핵심적인 우위를 점하고 있다고 지적했습니다.
이러한 변화는 엔비디아(Nvidia)와 같은 기업이 초기 급증을 포착한 반면, 투자자들은 이제 필수적이지만 덜 주목받는 인프라 계층에서의 성장을 찾고 있음을 시사합니다. 데이터 센터 증설에 대한 지속적인 수요 잠재력은 시장이 성숙함에 따라 최고 실적 AI 종목 목록을 재편할 수 있습니다.
## 데이터 센터 네트워킹의 부상
AI 모델의 폭발적인 성장은 데이터 센터 용량, 특히 수천 개의 GPU를 연결하기 위한 고속 네트워킹에 대한 전례 없는 수요를 창출했습니다. Broadcom과 Arista Networks는 이러한 수요의 직접적인 경로에 위치해 있습니다. Broadcom은 AI 네트워킹 패브릭에 필수적인 고대역폭 이더넷 스위치와 맞춤형 실리콘의 핵심 공급업체입니다. Arista Networks는 대규모 AI 클러스터 성능에 중요한 고속, 저지연 스위치를 기반으로 비즈니스를 구축했습니다. 기업과 클라우드 제공업체가 AI 역량 구축에 박차를 가함에 따라 네트워킹 중추에 대한 지출은 크게 증가할 것으로 예상되며, 이는 두 회사 모두에 지속적인 동력을 제공할 것입니다.
## Alphabet의 추론 우위
시장의 많은 관심이 AI 모델 학습을 위한 하드웨어에 집중되어 있지만, AI의 장기적인 비용은 추론(답을 생성하기 위해 학습된 모델을 실행하는 과정)에 의해 좌우될 것입니다. Alphabet의 자체 맞춤형 TPU 하드웨어에 대한 오랜 투자는 이 분야에서 상당한 이점을 제공합니다. Google의 워크로드에 맞게 특별히 설계된 TPU는 범용 GPU에 비해 추론 작업에서 와트당 우수한 성능을 제공할 수 있습니다. 이러한 효율성은 AI 서비스 사용량이 확대됨에 따라 수십억 달러의 비용 이점으로 이어져 클라우드 부문과 자체 AI 기반 제품의 경쟁 우위를 강화할 수 있습니다.
이 기사는 정보 제공 목적으로만 작성되었으며 투자 조언을 구성하지 않습니다.