Penguin, 3월 16일 첫 상용 CXL 서버 출시
Penguin Solutions는 2026년 3월 16일 MemoryAI KV 캐시 서버를 발표하며, Compute Express Link(CXL) 메모리 기술을 기반으로 하는 업계 최초의 상용화 준비 서버를 선보였습니다. 이 제품은 처리 장치와 메모리 사이에 더 효율적인 경로를 생성하여 인공지능 워크로드를 가속화하도록 특별히 설계되었습니다. 이번 출시는 AI 모델의 복잡성과 규모가 커지면서 발생하는 성능 병목 현상을 해결하고자 하는 Penguin을 핵심 혁신 기업으로 자리매김하게 합니다.
CXL 기반 서버를 상용화함으로써 Penguin은 고성장 AI 인프라 시장에 직접 진출하고 있습니다. 이 기술은 CPU와 특수 가속기가 높은 대역폭과 낮은 지연 시간으로 메모리 리소스를 공유할 수 있도록 합니다. 이 접근 방식은 기존 서버 아키텍처와 다르며, 특히 현대 데이터센터를 지배하는 추천 엔진 및 생성형 AI 애플리케이션과 같은 대규모 데이터 처리의 성능과 효율성을 향상시키기 위해 설계되었습니다.
AI 데이터센터, 5.2조 달러 규모의 인프라 과제에 직면
AI에 대한 수요는 데이터센터에 지속 불가능한 전력 및 대역폭 요구 사항을 초래하고 있습니다. McKinsey & Company의 예측에 따르면, 이러한 수요를 충족시키기 위해 2030년까지 5.2조 달러 규모의 새로운 데이터센터 투자가 필요할 것으로 예상됩니다. 문제의 핵심은 에너지 소비와 데이터 전송 속도에 있으며, 일부 개별 AI 칩은 최대 35킬로와트의 전력을 소비합니다. 이러한 제약으로 인해 전통적인 구리 기반 상호 연결 방식에서 벗어나 더 발전된 솔루션으로의 전환이 강요되고 있습니다.
CXL 및 공동 패키징 광학(CPO)과 같은 기술은 이러한 아키텍처 위기에 대한 중요한 해결책으로 부상하고 있습니다. 이러한 기술은 메모리 및 연결 리소스를 처리 코어에 더 가깝게 배치하여 I/O 병목 현상을 해결함으로써 비트당 에너지 소비와 지연 시간을 크게 줄입니다. 업계 전문가들이 지적했듯이, I/O 전력은 시스템 총 전력 사용량의 50% 이상을 차지할 수 있습니다. 이러한 비효율성을 해결함으로써 Penguin의 CXL 서버와 같은 새로운 아키텍처는 하이퍼스케일러가 전력 및 냉각 비용에 완전히 구애받지 않고 AI 기능을 확장할 수 있는 경로를 제공합니다.
CXL 채택으로 Penguin, 하드웨어 전환의 선두에 서다
Penguin의 출시는 CXL 지원 하드웨어의 초기 시장에서 중요한 선두 주자 이점을 확립합니다. 하이퍼스케일러와 기업 데이터센터가 값비싸고 전력 소모가 많은 기존 시스템에 대한 대안을 모색함에 따라, Penguin의 상용화 준비 서버는 실질적인 해결책을 제공합니다. 이러한 움직임은 CXL 표준의 광범위한 업계 채택을 가속화하여 경쟁업체들이 유사한 제품을 개발하고 출시하도록 압력을 가할 수 있습니다.
맞춤형 및 특수 실리콘의 전략적 중요성은 분명한 업계 추세이며, Meta와 같은 주요 업체들은 특정 워크로드에 최적화하기 위해 자체 칩 제품군을 개발하고 있습니다. CXL과 같은 개방형 산업 표준을 기반으로 구축하려는 Penguin의 전략은 다양한 데이터센터 환경에 통합될 수 있는 전문적이고 고성능 솔루션을 제공함으로써 시장에 진입하는 다른 경로를 제공합니다. 이는 회사를 단순한 하드웨어 공급업체가 아니라, AI 인프라의 다음 물결을 가능하게 하는 핵심 주체로 자리매김하게 합니다.