- SK하이닉스가 AI 서버 애플리케이션의 새로운 표준인 고용량 192GB SOCAMM2 메모리 모듈 양산에 착수했습니다.
- 이 메모리는 회사의 최신 1cnm LPDDR5X DRAM 공정을 기반으로 제작되어 데이터 센터의 전력 효율성과 밀도를 극대화합니다.
- 이 모듈은 엔비디아의 차세대 베라 루빈(Vera Rubin) AI 플랫폼 전용으로 설계되어 양사 간의 파트너십을 심화시킵니다.
뒤로

SK하이닉스가 엔비디아의 차세대 베라 루빈(Vera Rubin) AI 플랫폼용으로 설계된 192GB 메모리 모듈의 양산을 시작하며 인공지능 공급망에서의 핵심적인 역할을 더욱 강화하고 있습니다. 이번 조치는 2026년 플랫폼 출시를 앞두고 AI 인프라의 성능 병목 현상을 해결하는 것을 목표로 합니다.
SK하이닉스 관계자는 발표문에서 "이는 추론 비용 격차를 좁히는 것"이라고 밝혔습니다. 회사는 "AI 인프라의 병목 현상을 해결하고 최적의 성능을 제공하기 위해 엔비디아와 긴밀히 협력할 것"이라고 덧붙였습니다.
새로운 SOCAMM2 모듈은 전통적으로 모바일 기기에서 사용되던 저전력 LPDDR5X 메모리를 채택하여 AI 서버의 높은 요구 사항에 맞게 조정했습니다. SK하이닉스의 최신 1cnm 공정(6세대 10나노급 기술)으로 제작된 192GB 패키지는 상당한 밀도 증가를 제공하며 전력 효율성을 극대화합니다. 이를 통해 데이터 센터에서 더욱 강력하고 효율적인 AI 모델 학습 및 추론이 가능해집니다.
이번 개발로 AI 가속기 시장의 지배적 강자인 엔비디아의 핵심 공급업체로서 SK하이닉스의 입지는 더욱 공고해졌습니다. 투자자들에게 이 협력은 AI 하드웨어 구축과 관련된 미래 수익원의 중요한 지표입니다. 그러나 루빈 플랫폼의 출시 지연 가능성 속에 SK하이닉스가 해당 플랫폼용 HBM4 출하량을 20-30% 줄이는 방안을 검토 중이라는 보도도 있어 잠재적인 역풍이 예상됩니다. 한편, 경쟁사인 삼성전자는 자체적인 최첨단 2nm 공정을 개발 중이나 수율 문제에 직면해 있어, 반도체 제조의 최첨단을 유지하는 데 필요한 엄청난 기술적 난이도와 자본 투자를 여실히 보여주고 있습니다.
SOCAMM2 표준은 서버용 메모리 아키텍처의 패러다임 변화를 의미합니다. 저전력 DRAM을 더 작고 효율적인 모듈로 패키징함으로써, 거대해지는 AI 모델로 인해 발생하는 높은 메모리 대역폭과 용량에 대한 수요를 충족합니다. 최첨단 1cnm 노드에서 이러한 모듈을 양산할 수 있는 SK하이닉스의 능력은 치열한 AI 하드웨어 부품 시장에서 경쟁 우위를 제공합니다.
이 기사는 정보 제공만을 목적으로 하며 투자 조언을 구성하지 않습니다.