Samsung Electronics Co. đang báo cáo mức tăng hiệu suất gấp hơn mười lần trong kiến trúc bộ nhớ mới của mình, một bước tiến quan trọng cho một công nghệ có thể giải quyết vấn đề hiệu quả lớn trong các trung tâm dữ liệu AI ngay khi Google và Nvidia cam kết triển khai nó.
"Cơ sở hạ tầng AI cần rất nhiều bộ nhớ và giá bộ nhớ tiếp tục tăng cao," Jin Kim, CEO của công ty khởi nghiệp CXL Hàn Quốc Xcena, cho biết trong một cuộc phỏng vấn gần đây. "Điều này buộc các khách hàng mục tiêu của chúng tôi phải cải thiện việc sử dụng bộ nhớ và hiện tại không có giải pháp nào khác có thể thay thế CXL để cải thiện hiệu quả bộ nhớ."
Theo một bài báo được trình bày tại hội nghị IEEE gần đây, hệ thống "Pangea v2" của Samsung, được xây dựng trên tiêu chuẩn CXL 2.0, đã chứng minh mức tăng hiệu suất truyền dữ liệu gấp 10,2 lần so với các phương pháp Truy cập Bộ nhớ Trực tiếp Từ xa (RDMA) truyền thống. Hệ thống này, tập hợp tối đa 5,5 terabyte DRAM, cũng đã cắt giảm các điểm nghẽn chính tới 96%. Bước tiến này diễn ra khi Google xác nhận đã bắt đầu triển khai CXL trong các trung tâm dữ liệu của mình và Nvidia có kế hoạch hỗ trợ tiêu chuẩn CXL 3.1 trong CPU Vera của mình vào cuối năm nay.
Đối với các nhà đầu tư, những động thái song song của một nhà sản xuất bộ nhớ hàng đầu và hai nhà điều hành trung tâm dữ liệu lớn nhất báo hiệu một điểm bùng phát tiềm năng cho CXL (Compute Express Link). Công nghệ này cho phép nhiều CPU và GPU chia sẻ một bể bộ nhớ chung, giải quyết sự kém hiệu quả nghiêm trọng khi các mô-đun bộ nhớ chuyên dụng thường chỉ được sử dụng từ 20 đến 30%. Việc triển khai CXL thành công có thể làm giảm đáng kể tổng chi phí sở hữu cho phần cứng AI, tác động đến định giá của các nhà sản xuất bộ nhớ như Samsung và SK Hynix, và có khả năng thay đổi bối cảnh cạnh tranh do Nvidia thống trị.
Pangea v2 Thiết Lập Tiêu Chuẩn Hiệu Suất Mới
Hệ thống Pangea v2 của Samsung tích hợp 22 mô-đun CXL DRAM của mình vào một bể bộ nhớ chung duy nhất, được phát triển với sự cộng tác của Marvell Technology Inc. và công ty hạ tầng AI Liquid AI. Mặc dù mức tăng hiệu suất 10,2 lần là một thành tựu kỹ thuật lớn, hệ thống này dựa trên tiêu chuẩn CXL 2.0, vốn đã đang được thay thế.
Hiệp hội CXL kể từ đó đã hoàn thiện phiên bản 3.2 của đặc tả. Samsung đã tuyên bố kế hoạch phát hành hệ thống "Pangea v3" dựa trên tiêu chuẩn mới hơn vào năm 2026. Đối thủ cạnh tranh SK Hynix Inc. cũng đang di chuyển nhanh chóng, đã hoàn tất chứng nhận khách hàng cho bộ nhớ 96GB CMM-DDR5 tương thích với CXL 2.0 vào năm 2025 và đang lên kế hoạch cho sản phẩm thế hệ thứ hai để hỗ trợ CXL 3.0. Micron Technology Inc. đã gia nhập cuộc đua vào năm 2024, củng cố lĩnh vực cạnh tranh giữa ba nhà sản xuất bộ nhớ hàng đầu.
Hỗ Trợ Hệ Sinh Thái Vẫn Là Rào Cản Cuối Cùng
Trở ngại chính đối với việc áp dụng rộng rãi CXL không phải là công nghệ mà là sự điều phối. Để hệ thống hoạt động, mọi thành phần trong trung tâm dữ liệu—từ CPU và GPU đến các mô-đun bộ nhớ và thiết bị mạng—phải hỗ trợ cùng một tiêu chuẩn.
"Để CXL hoạt động, bạn cần CPU, GPU, bộ nhớ và phần mềm đều phải tương thích," Mark Li, một nhà phân tích bán dẫn tại Bernstein Research cho biết. "Có rất ít công ty có thể kiểm soát tất cả các sản phẩm này và thúc đẩy sự thay đổi mang tính hiệp đồng. Nvidia là một, và Google là một công ty khác."
Lịch sử cho thấy sự khó khăn của quá trình chuyển đổi này. Advanced Micro Devices Inc. vào năm 2022 và Intel Corp. vào năm 2023 đều đã ra mắt chip máy chủ hỗ trợ CXL, nhưng việc áp dụng thương mại còn hạn chế. Ngay cả với đợt triển khai hiện tại của Google, các kỹ sư trong ngành cho rằng công nghệ này vẫn chưa đáp ứng được tất cả các yêu cầu của các nhà cung cấp đám mây lớn. Việc ra mắt CPU Vera của Nvidia vào cuối năm nay hiện được coi là thử nghiệm thực tế quan trọng nhất về việc liệu CXL cuối cùng có thể chuyển từ thử nghiệm ngách sang một tiêu chuẩn ngành đáng tin cậy hay không.
Bài viết này chỉ dành cho mục đích thông tin và không cấu thành lời khuyên đầu tư.