Kioxia 100 Milyonun Üzerinde IOPS'ye Sahip SSD'yi Tanıttı
16 Mart 2026'da Tokyo merkezli Kioxia, yapay zeka altyapılarındaki kritik depolama darboğazlarını ortadan kaldırmak için tasarlanmış yeni bir katı hal sürücüsü olan "Süper Yüksek IOPS SSD"nin geliştirildiğini duyurdu. Sürücünün mimarisi, bir sistemin GPU'sunun yüksek hızlı flash belleğe doğrudan erişmesine olanak tanıyor; bu, geleneksel veri yollarından önemli bir sapmadır. Bu yenilik, genellikle pahalı GPU'ları veri beklerken bırakan yapay zeka eğitimi ve çıkarım iş yüklerinin performans yoğun taleplerini hedefliyor.
Duyuru, 16-19 Mart tarihleri arasında düzenlenen küresel birincil yapay zeka etkinliği olan NVIDIA'nın GTC 2026 konferansının başlangıcı için stratejik olarak zamanlandı. Kioxia, konferansta 100 milyonun üzerinde Giriş/Çıkış İşlemi Başına Saniye (IOPS) sağlayabilen bir emülatör kullanarak teknolojinin potansiyelini göstermeyi planlıyor. Bu performans seviyesi, büyük ölçekli veri işleme ve alma-destekli üretim (RAG) boru hatları dahil olmak üzere en zorlu yapay zeka ortamlarına ayak uydurmak için tasarlandı.
Depolama, GTC 2026'da Yapay Zeka Savaş Alanı Haline Geliyor
Kioxia'nın donanım odaklı yeniliği, GTC 2026'da ortaya çıkan daha büyük bir eğilimin parçasıdır; depolama mimarisi, yapay zeka performansı için önemli bir rekabet farklılaştırıcısı olarak merkez sahneye çıkıyor. Kioxia ham donanım hızına odaklanırken, rakipler aynı sorunu hizmet odaklı bir yaklaşımla ele alıyor. Örneğin, rakip depolama şirketi Everpure, konferansı "Yapay Zeka İçin Evergreen One" ürününü duyurmak için kullandı.
Everpure'un modeli, yüksek performanslı FlashBlade//Exa depolaması için esnek, tüketim tabanlı bir hizmet sunar ve hizmet seviyesi anlaşmaları (SLA'lar) doğrudan müşterinin GPU sayısına bağlıdır. Bu strateji, depolama altyapısının GPU kaynaklarını tam olarak kullanmasını sağlamak için yeterli aktarım hızı sağlamasını garanti ederek performans riskini müşteriden satıcıya kaydırır. Büyük depolama oyuncularının bu paralel duyuruları, önemli bir pazar değişimini vurgulamaktadır: Yapay zeka modelleri daha karmaşık hale geldikçe, veri hattını optimize etmek artık GPU'ların kendi hesaplama gücü kadar önemli hale gelmiştir.