마이크론, 2.8 TB/s 대역폭 HBM4 대량 생산 시작
마이크론 테크놀로지는 2026년 1분기에 HBM4 메모리의 대량 생산을 시작했으며, 이는 AI 컴퓨팅 인프라에 있어 중요한 진전입니다. 3월 16일 GTC 2026 컨퍼런스에서 발표된 HBM4 36GB 12스택 메모리는 엔비디아의 차세대 Vera Rubin AI 플랫폼을 위해 특별히 설계되었습니다. 이 새로운 메모리는 2.8 TB/s 이상의 대역폭을 제공하여 이전 HBM3E 세대보다 2.3배 향상되었으며, 전력 효율성도 20% 이상 향상되었습니다. 용량에 대한 증가하는 수요를 충족시키기 위해 마이크론은 또한 고객들에게 48GB 16스택 버전을 샘플링하고 있으며, 이는 큐브당 메모리를 33% 더 많이 제공합니다.
이러한 발전은 두 기술 거대 기업 간의 협력을 심화시키며, 마이크론의 메모리를 미래 AI 시스템의 핵심 구성 요소로 자리매김하게 합니다. 이 통합은 메모리 및 컴퓨팅 기능이 동반 확장되도록 설계되었으며, 이는 점점 더 복잡해지는 AI 모델을 처리하는 데 중요한 요소입니다.
엔비디아와의 긴밀한 협력을 통해 컴퓨팅과 메모리가 처음부터 함께 확장되도록 보장합니다. 이 중심에는 AI의 엔진인 마이크론의 HBM4가 있으며, 전례 없는 대역폭, 용량 및 전력 효율성을 제공합니다.
— 마이크론 테크놀로지 총괄 부사장 겸 최고 비즈니스 책임자 Sumit Sadana.
업계 최초 Gen6 SSD, AI 데이터센터에 28 GB/s 제공
HBM4 발표와 함께 마이크론은 업계 최초의 PCIe Gen6 데이터센터 SSD의 대량 생산도 시작했습니다. 마이크론 9650 SSD는 Gen5 이전 세대의 읽기 성능을 두 배로 높여 순차 읽기 처리량에서 최대 28 GB/s, 무작위 읽기 IOPS에서 550만 IOPS를 제공합니다. 이 성능은 엔비디아 BlueField-4 STX와 같은 아키텍처에서 실행되는 AI 훈련 및 추론 워크로드에 맞춰져 있습니다. 포트폴리오를 더욱 확장하기 위해 마이크론은 Vera Rubin 플랫폼용 새로운 SOCAMM2 모듈도 생산하고 있으며, 각 CPU당 최대 2TB의 메모리와 1.2 TB/s의 대역폭을 가능하게 하여 데이터센터를 위한 종단 간 솔루션 전략을 강화하고 있습니다.
AI 붐, 주가 34% 상승 견인, 시장 주기성은 여전히 위험
시장은 마이크론의 고성능 AI 메모리로의 전략적 전환에 보답하며, 2026년 현재까지 주가가 34% 상승했습니다. 이러한 실적은 AI 인프라 붐에 의해 촉진되었으며, 마이크로소프트, 알파벳, 아마존과 같은 하이퍼스케일러들은 올해 데이터센터에 6000억에서 7000억 달러를 지출할 것으로 예상됩니다. 메모리가 핵심 병목 현상으로 작용하면서, 전 세계 HBM 시장만 해도 2025년 350억 달러에서 2028년에는 1000억 달러로 확대될 것으로 예측됩니다. 마이크론의 최신 제품군은 이러한 성장을 직접적으로 포착할 수 있도록 합니다. 그러나 일부 분석가들은 메모리 시장이 여전히 주기적이라는 점에 주의를 기울입니다. 인위적으로 높은 가격과 공급 제약이 결국 주요 고객들이 자본 지출을 줄이도록 유도할 수 있으며, 현재의 낙관적인 분위기에도 불구하고 미래 수요에 잠재적인 역풍을 만들 수 있다는 우려가 남아 있습니다.