Nvidia, Vera Rubin Platformu İçin Sınırsız DRAM Satın Alma Sözü Verdi
Nvidia CEO'su Jensen Huang, Morgan Stanley Teknoloji Konferansı'nda bellek çip üreticilerine açık bir talimat verdi: Nvidia, üretebilecekleri her DRAM çipini satın alacak. Bu agresif tedarik stratejisi, şirketin yaklaşan Vera Rubin yapay zeka platformu için gereken geniş bellek kaynaklarını güvence altına almayı amaçlıyor ve yapay zeka donanımındaki silahlanma yarışının tırmandığını işaret ediyor.
Huang, veri merkezi kaynaklarının (arazi ve güç gibi) kısıtlı olduğu bir ortamda, müşterilerin yatırımlarını maksimize etmek için mevcut en güçlü hesaplama çözümlerini dağıtmaya teşvik edildiğini açıkladı. Bu dinamik, yüksek performanslı bellek tedarikini Nvidia için kritik bir stratejik öncelik haline getiriyor ve bellek fiyatları artsa bile şirket agresif satın alımlarını sürdürecek.
Yeni Nesil Yapay Zeka Çipleri 288GB Gelişmiş HBM4 Bellek Gerektirecek
Belleğe olan doymak bilmez talep, Nvidia'nın yeni nesil hızlandırıcılarının mimarisine dayanıyor. Şirketin mevcut GB300 platformu, önceki GB200 neslindeki 192GB'dan önemli bir artışla 288GB yüksek bant genişliğine sahip bellek (HBM) desteği sunarken, teknik gereksinimler daha da yoğunlaşacak. Yaklaşan Vera Rubin platformu, 288GB kapasitesini koruyacak ancak mevcut HBM3E standardından daha gelişmiş HBM4'e geçiş yapacak.
HBM4'e geçiş, tedarik sıkışıklığının temel itici gücüdür. HBM4 bellek, HBM3E'nin 12 katmanlı tasarımına göre üretimi daha karmaşık olan 16 katmanlı yığın tasarımını kullanır. Daha yüksek karmaşıklık, üretim hata oranını artırır, bu da her işlevsel HBM4 birimini üretmek için daha fazla ham DRAM gofretinin tüketilmesi anlamına gelir. Bu teknolojik sıçrama, küresel yüksek performanslı bellek tedarikini daha da zorlayacaktır.
Yapay Zeka Talebi Tüketici Arzını Sıkıştırırken Bellek Üreticileri Kazanıyor
Nvidia'nın belleğe olan bu aç iştahının başlıca faydalanıcıları, dünyanın en büyük üç DRAM üreticisi olan Samsung, SK Hynix ve Micron'dur. Her üçü de üretimi artırıyor olsa da, odak noktaları yüksek marjlı HBM ve kârlı yapay zeka veri merkezi pazarına hizmet etmek için kurumsal düzeyde DRAM'dır. Analistler, bu değişimin önemli marj genişlemesine yol açacağına inanıyor; Stifel analisti Brian Chin, sunucu DDR5 ürünlerinin brüt marjlarının %80'i aşabileceğini öngörüyor.
Bu stratejik odaklanmanın önemli zincirleme etkileri olması bekleniyor. Yapay zeka ile ilgili belleğin önceliklendirilmesinin, tüketici DRAM pazarında en az önümüzdeki bir yıl boyunca bir arz açığına neden olarak PC'ler ve diğer tüketici elektroniği ürünleri için belleğin kullanılabilirliğini ve maliyetini etkilemesi bekleniyor. Eş zamanlı olarak, sıkı arz-talep dengesinin HBM, LPDDR4, LPDDR5 ve yaklaşan DDR6 standartlarının fiyatlarını sürekli olarak artırması bekleniyor ve bu durum Foxconn, Quanta ve Wistron gibi Nvidia'nın temel sunucu montaj ortaklarına da fayda sağlayacak.