Samsung Electronics Co., Google ve Nvidia'nın teknolojiyi kullanmaya karar vermesiyle birlikte AI veri merkezlerindeki büyük bir verimlilik sorununu çözebilecek yeni bellek mimarisinde on kattan fazla performans artışı bildirdi.
Güney Koreli CXL girişimi Xcena'nın CEO'su Jin Kim, yakın zamanda verdiği bir röportajda, "AI altyapısının çok fazla belleğe ihtiyacı var ve bellek fiyatları tırmanmaya devam ediyor" dedi. "Bu durum, hedef müşterilerimizi bellek kullanımını iyileştirmeye zorluyor ve şu anda bellek verimliliğini artırmak için CXL'in yerini alabilecek başka bir çözüm yok."
Yakın zamanda yapılan bir IEEE konferansında sunulan bir makaleye göre, CXL 2.0 standardı üzerine inşa edilen Samsung'un "Pangea v2" sistemi, geleneksel Uzaktan Doğrudan Bellek Erişimi (RDMA) yöntemlerine göre veri aktarım performansında 10,2 kat artış gösterdi. 5,5 terabayta kadar DRAM'i havuzlayan sistem, temel darboğazları da yüzde 96'ya kadar azalttı. Bu ilerleme, Google'ın veri merkezlerinde CXL'i devreye almaya başladığını onaylaması ve Nvidia'nın bu yılın sonlarında Vera CPU'sunda CXL 3.1 standardını desteklemeyi planlamasıyla gerçekleşti.
Yatırımcılar için, en iyi bellek üreticisi ile en büyük iki veri merkezi operatörünün bu paralel hamleleri, CXL (Compute Express Link) için potansiyel bir dönüm noktasına işaret ediyor. Teknoloji, birden fazla CPU ve GPU'nun ortak bir bellek havuzunu paylaşmasına olanak tanıyarak, özel bellek modüllerinin genellikle sadece yüzde 20 ila 30 oranında kullanıldığı kritik bir verimsizliği gideriyor. Başarılı bir CXL lansmanı, AI donanımı için toplam sahip olma maliyetini önemli ölçüde düşürebilir, Samsung ve SK Hynix gibi bellek üreticilerinin değerlemesini etkileyebilir ve potansiyel olarak Nvidia'nın hakim olduğu rekabet ortamını değiştirebilir.
Pangea v2 Yeni Performans Kriterini Belirliyor
Samsung'un Pangea v2 sistemi, Marvell Technology Inc. ve AI altyapı firması Liquid AI ile iş birliği içinde geliştirilen 22 adet CXL DRAM modülünü tek bir paylaşımlı bellek havuzunda birleştiriyor. 10,2 kat performans artışı büyük bir teknik başarı olsa da sistem, halihazırda yerini yenilerine bırakan CXL 2.0 standardına dayanıyor.
CXL Konsorsiyumu o zamandan beri spesifikasyonun 3.2 sürümünü tamamladı. Samsung, 2026 yılına kadar daha yeni standarda dayalı bir "Pangea v3" sistemi yayınlamayı planladığını belirtti. Rakip SK Hynix Inc. de hızla hareket ederek 2025 yılında CXL 2.0 ile uyumlu 96GB CMM-DDR5 belleği için müşteri sertifikasyonunu tamamladı ve CXL 3.0'ı destekleyecek ikinci nesil bir ürün planlıyor. Micron Technology Inc. 2024 yılında yarışa katılarak en iyi üç bellek üreticisi arasındaki rekabet alanını sağlamlaştırdı.
Ekosistem Desteği Nihai Engel Olarak Kalıyor
CXL'in yaygınlaşmasının önündeki temel engel teknoloji değil, koordinasyondur. Sistemin çalışması için veri merkezindeki CPU ve GPU'dan bellek modüllerine ve ağ ekipmanlarına kadar her bileşenin aynı standardı desteklemesi gerekir.
Bernstein Research yarı iletken analisti Mark Li, "CXL'i işlevsel kılmak için CPU, GPU, bellek ve yazılımın hepsinin uyumlu olması gerekir" dedi. "Tüm bu ürünleri kontrol edebilecek ve sinerjik bir değişim yaratabilecek çok az şirket var. Nvidia bunlardan biri, Google ise bir diğeri."
Tarih bu geçişin zorluğunu gösteriyor. Advanced Micro Devices Inc. 2022'de ve Intel Corp. 2023'te CXL'i destekleyen sunucu çiplerini piyasaya sürdü, ancak ticari benimseme sınırlı kaldı. Google'ın mevcut dağıtımına rağmen, sektör mühendisleri teknolojinin henüz büyük bulut sağlayıcılarının tüm gereksinimlerini karşılamadığını öne sürüyor. Nvidia'nın bu yılın sonundaki Vera CPU lansmanı, CXL'in nihayet niş bir deneyden güvenilir bir endüstri standardına geçip geçemeyeceğinin en önemli gerçek dünya testi olarak görülüyor.
Bu makale sadece bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.