Nvidia Söylentisi KOSPI'den %10 Sildi, Ardından Geri Sıçrama Yaşadı
Nvidia'nın Mart ayındaki GTC konferansında Groq'un çip üstü SRAM mimarisini kullanan yeni bir yapay zeka çıkarım çipi duyurmayı planladığına dair bir rapor, Güney Kore borsasında bir şok dalgası yarattı. Yatırımcılar, SRAM'a geçişin büyük şirketler Samsung Electronics ve SK Hynix için temel ürünler olan Yüksek Bant Genişlikli Bellek (HBM) ve DRAM talebini aşındıracağı korkusuyla haberlere agresif bir şekilde bellek hisselerini satarak tepki gösterdi. Bu satış baskısı, Güney Kore'nin gösterge KOSPI endeksinin iki günde %10'dan fazla düşmesine neden oldu ve 2008'den bu yana en şiddetli iki günlük düşüşünü kaydetti.
Ancak, düşüş kısa sürdü. Piyasa analizi SRAM teknolojisinin teknik ve ekonomik gerçeklerini açıklığa kavuşturunca, güçlü bir toparlanma yaşandı. KOSPI endeksi %11 yükselirken, paniğin merkezindeki SK Hynix ve Samsung Electronics hisseleri sırasıyla %15 ve %13 artarak önceki kayıpları tersine çevirdi.
SRAM Maliyeti ve Yoğunluğu HBM Değişimini Engelliyor
Piyasanın ilk paniği, KIS analistlerinin 'bellek hakkında kötü bir anlayış' olarak nitelendirdiği bellek teknolojilerine ilişkin temel bir yanlış anlamadan kaynaklandı. SRAM erişim hızında avantajlar sunsa da, fiziksel olarak DRAM'den daha az yoğundur ve üretimi önemli ölçüde daha pahalıdır. Aynı depolama kapasitesi için bir SRAM çipi, bir DRAM çipinin silikon kalıp alanının beş ila on katını gerektirir, bu da onu büyük ölçekli yapay zeka modellerinde birincil bellek çözümü olarak kullanmak için maliyetli hale getirir.
Tarihsel olarak, SRAM'ın rolü, CPU önbellekleri veya çip üzerindeki tamponlar gibi aşırı düşük gecikmenin kritik olduğu uygulamalarla sınırlı kalmıştır. Büyük yapay zeka modellerini eğitmek ve çalıştırmak için gereken devasa veri kümelerini depolamak için tasarlanmamıştır; bu rol, üstün yoğunlukları ve maliyet etkinlikleri nedeniyle HBM ve DRAM'ın başarılı olduğu bir alandır.
Çeşitlendirilmiş Bellek Pazarı Daha Büyük TAM Sinyali Veriyor
Nvidia'nın SRAM mimarisi araştırması bir tehdit olmaktan ziyade, belirli, yüksek değerli yapay zeka iş yükleri için performansı optimize etmeye yönelik stratejik bir hamleyi işaret ediyor. Bu teknoloji, robotik, otonom sürüş ve özel veri merkezi çıkarım görevleri gibi gerçek zamanlı yanıt verme ve minimum veri hareketi gerektiren uygulamalar için idealdir. OpenAI'nin premium fiyatlı çıkarım hizmetleri için Cerebras'ın SRAM tabanlı çiplerini konuşlandırmasıyla bu eğilim zaten uygulanmaktadır.
SRAM tabanlı çözümlerin benimsenmesinin daha sofistike, çok katmanlı bir bellek ortamı yaratması bekleniyor. Bu gelecekteki hiyerarşide, SRAM ultra düşük gecikmeli segmentte hizmet verirken, HBM ve DRAM büyük ölçekli model eğitimi ve genel amaçlı sunucular için işgücü olmaya devam edecektir. Analistler, bu çeşitliliğin sonuçta tüm bellek endüstrisi için toplam adreslenebilir pazarı (TAM) genişleteceğini ve yeni büyüme fırsatları yaratacağını belirtiyor.