Nvidia Cam Kết Mua Không Giới Hạn DRAM cho Nền Tảng Vera Rubin
CEO Nvidia Jensen Huang đã đưa ra một chỉ thị rõ ràng cho các nhà sản xuất chip nhớ tại Hội nghị Công nghệ Morgan Stanley: Nvidia sẽ mua mọi chip DRAM mà họ có thể sản xuất. Chiến lược mua sắm mạnh mẽ này được thiết kế để đảm bảo nguồn tài nguyên bộ nhớ khổng lồ cần thiết cho nền tảng AI Vera Rubin sắp tới của công ty, đánh dấu sự leo thang trong cuộc đua vũ trang phần cứng AI.
Ông Huang giải thích rằng trong môi trường mà các tài nguyên trung tâm dữ liệu như đất đai và điện năng bị hạn chế, khách hàng được khuyến khích triển khai các giải pháp tính toán mạnh mẽ nhất hiện có để tối đa hóa khoản đầu tư của họ. Động lực này biến việc đảm bảo nguồn cung cấp bộ nhớ hiệu suất cao ổn định thành ưu tiên chiến lược quan trọng đối với Nvidia, công ty sẽ tiếp tục mua sắm tích cực ngay cả khi giá bộ nhớ tăng.
Chip AI Thế Hệ Tiếp Theo Yêu Cầu 288GB Bộ Nhớ HBM4 Tiên Tiến
Nhu cầu không ngừng về bộ nhớ bắt nguồn từ kiến trúc của các bộ tăng tốc thế hệ tiếp theo của Nvidia. Trong khi nền tảng GB300 hiện tại của công ty đã hỗ trợ dung lượng lớn 288GB Bộ nhớ Băng thông Cao (HBM), một sự gia tăng đáng kể so với 192GB trong thế hệ GB200 trước đó, thì các yêu cầu kỹ thuật dự kiến sẽ tăng cường. Nền tảng Vera Rubin sắp tới sẽ duy trì dung lượng 288GB nhưng sẽ chuyển từ tiêu chuẩn HBM3E hiện tại sang HBM4 tiên tiến hơn.
Sự chuyển đổi sang HBM4 là động lực chính của tình trạng thắt chặt nguồn cung. Bộ nhớ HBM4 sử dụng thiết kế xếp chồng 16 lớp, phức tạp hơn trong sản xuất so với thiết kế 12 lớp của HBM3E. Độ phức tạp cao hơn làm tăng tỷ lệ lỗi sản xuất, có nghĩa là nhiều tấm wafer DRAM thô được tiêu thụ để sản xuất mỗi đơn vị HBM4 chức năng. Bước nhảy vọt công nghệ này sẽ càng làm căng thẳng nguồn cung bộ nhớ hiệu suất cao toàn cầu.
Các Nhà Sản Xuất Bộ Nhớ Hưởng Lợi Khi Nhu Cầu AI Ép Chặt Nguồn Cung Tiêu Dùng
Những người hưởng lợi chính từ nhu cầu bộ nhớ khổng lồ của Nvidia là ba nhà sản xuất DRAM hàng đầu thế giới: Samsung, SK Hynix và Micron. Mặc dù cả ba đều đang tăng cường sản xuất, nhưng trọng tâm của họ là HBM có lợi nhuận cao và DRAM cấp doanh nghiệp để phục vụ thị trường trung tâm dữ liệu AI béo bở. Các nhà phân tích tin rằng sự thay đổi này sẽ dẫn đến việc mở rộng đáng kể biên lợi nhuận, với nhà phân tích Brian Chin của Stifel dự báo rằng biên lợi nhuận gộp cho các sản phẩm DDR5 máy chủ có thể vượt quá 80%.
Trọng tâm chiến lược này dự kiến sẽ có những tác động lan tỏa đáng kể. Việc ưu tiên bộ nhớ liên quan đến AI dự kiến sẽ gây ra thiếu hụt nguồn cung trên thị trường DRAM tiêu dùng trong ít nhất một năm tới, ảnh hưởng đến khả năng cung cấp và chi phí bộ nhớ cho PC và các thiết bị điện tử tiêu dùng khác. Đồng thời, sự cân bằng cung cầu chặt chẽ dự kiến sẽ thúc đẩy giá HBM, LPDDR4, LPDDR5 và các tiêu chuẩn DDR6 sắp tới tiếp tục tăng, điều này cũng sẽ mang lại lợi ích cho các đối tác lắp ráp máy chủ cốt lõi của Nvidia như Foxconn, Quanta và Wistron.