Micron, 2.8 TB/s Bant Genişliğine Sahip HBM4'ün Seri Üretimine Başladı
Micron Technology, 2026'nın ilk çeyreğinde HBM4 belleğinin yüksek hacimli üretimine başladı; bu, yapay zeka bilgi işlem altyapısı için önemli bir ilerlemedir. 16 Mart'ta GTC 2026 konferansında duyurulan HBM4 36GB 12 yığın bellek, NVIDIA'nın yeni nesil Vera Rubin yapay zeka platformu için özel olarak tasarlanmıştır. Yeni bellek, önceki HBM3E nesline göre 2.3 kat iyileşme ile 2.8 TB/s'den fazla bant genişliği sağlarken, güç verimliliğini de %20'den fazla artırıyor. Artan kapasite talebini karşılamak için Micron, müşterilere 48GB 16 yığınlık bir versiyon da örnek olarak sunuyor ve bu, küp başına %33 daha fazla bellek sağlıyor.
Bu gelişme, iki teknoloji devi arasındaki işbirliğini derinleştirerek Micron'un belleğini gelecekteki yapay zeka sistemleri için temel bir bileşen olarak konumlandırıyor. Entegrasyon, bellek ve bilgi işlem yeteneklerinin birlikte ölçeklenmesini sağlamak üzere tasarlanmıştır; bu, giderek karmaşıklaşan yapay zeka modellerini işlemek için kritik bir faktördür.
NVIDIA ile yakın işbirliğimiz, bilgi işlem ve belleğin ilk günden itibaren birlikte ölçeklenmesini sağlıyor. Bunun kalbinde, yapay zekanın motoru olan Micron'un HBM4'ü yer alıyor ve eşi benzeri görülmemiş bant genişliği, kapasite ve güç verimliliği sunuyor.
— Micron Technology İcra Kurulu Başkan Yardımcısı ve Baş Ticari Sorumlusu Sumit Sadana.
Sektörün İlk Gen6 SSD'si, Yapay Zeka Veri Merkezleri için 28 GB/s Hız Sağlıyor
HBM4 duyurusunun yanı sıra Micron, sektörün ilk PCIe Gen6 veri merkezi SSD'sinin de yüksek hacimli üretimini başlattı. Micron 9650 SSD, Gen5 selefine göre okuma performansını ikiye katlayarak sıralı okuma çıktısında 28 GB/s'ye kadar ve rastgele okuma IOPS'sinde 5.5 milyona kadar hız sunuyor. Bu performans, NVIDIA'nın BlueField-4 STX gibi mimarilerde çalışan yapay zeka eğitim ve çıkarım iş yükleri için özel olarak tasarlanmıştır. Portföyünü daha da genişleten Micron, Vera Rubin platformu için yeni SOCAMM2 modülleri de üretiyor; bunlar, CPU başına 2TB'a kadar bellek ve 1.2 TB/s bant genişliği sağlayarak veri merkezi için uçtan uca çözüm stratejisini güçlendiriyor.
Yapay Zeka Patlaması %34 Hisse Senedi Kazancını Tetikliyor, Piyasa Döngüleri Risk Oluşturmaya Devam Ediyor
Piyasa, Micron'un yüksek performanslı yapay zeka belleğine yönelik stratejik dönüşünü ödüllendirdi ve hisse senedi 2026'da şimdiye kadar %34 yükseldi. Bu performans, yapay zeka altyapısı patlamasıyla besleniyor; Microsoft, Alphabet ve Amazon gibi hiper ölçekleyicilerin bu yıl veri merkezlerine 600 milyar ila 700 milyar dolar harcaması bekleniyor. Belleğin önemli bir darboğaz görevi görmesiyle, yalnızca küresel HBM pazarının 2025'teki 35 milyar dolardan 2028'e kadar 100 milyar dolara çıkması öngörülüyor. Micron'un en yeni ürün paketi, bu büyümeyi doğrudan yakalamak için konumlandırıyor. Ancak bazı analistler, bellek pazarının döngüsel kalmaya devam ettiği konusunda uyarıyor. Yapay olarak yüksek fiyatların ve tedarik kısıtlamalarının, mevcut iyimserliğe rağmen büyük müşterileri sermaye harcamalarını azaltmaya teşvik edebileceği ve gelecekteki talep için potansiyel zorluklar yaratabileceği endişesi devam ediyor.