Micron Bắt đầu Sản xuất Hàng loạt HBM4 với Băng thông 2.8 TB/s
Micron Technology đã khởi động sản xuất số lượng lớn bộ nhớ HBM4 vào quý 1 năm 2026, một tiến bộ đáng kể cho cơ sở hạ tầng điện toán AI. Được công bố vào ngày 16 tháng 3 tại hội nghị GTC 2026, bộ nhớ HBM4 36GB 12 lớp xếp chồng được thiết kế đặc biệt cho nền tảng AI Vera Rubin thế hệ tiếp theo của NVIDIA. Bộ nhớ mới cung cấp băng thông lớn hơn 2.8 TB/s, cải thiện gấp 2.3 lần so với thế hệ HBM3E trước đó, đồng thời tăng hiệu suất năng lượng hơn 20%. Để đáp ứng nhu cầu dung lượng ngày càng tăng, Micron cũng đang thử nghiệm phiên bản 48GB 16 lớp xếp chồng với khách hàng, phiên bản này cung cấp thêm 33% bộ nhớ trên mỗi khối.
Sự phát triển này làm sâu sắc thêm sự hợp tác giữa hai gã khổng lồ công nghệ, định vị bộ nhớ của Micron là một thành phần cốt lõi cho các hệ thống AI trong tương lai. Sự tích hợp này được thiết kế để đảm bảo rằng khả năng bộ nhớ và tính toán mở rộng song song, một yếu tố quan trọng để xử lý các mô hình AI ngày càng phức tạp.
Sự hợp tác chặt chẽ của chúng tôi với NVIDIA đảm bảo rằng khả năng tính toán và bộ nhớ được thiết kế để mở rộng cùng nhau ngay từ đầu. Trọng tâm của điều này là HBM4 của Micron, động cơ của AI, mang lại băng thông, dung lượng và hiệu suất năng lượng chưa từng có.
— Sumit Sadana, Phó Chủ tịch Điều hành và Giám đốc Kinh doanh tại Micron Technology.
SSD Gen6 Đầu tiên trong Ngành Cung cấp 28 GB/s cho Trung tâm Dữ liệu AI
Cùng với thông báo về HBM4, Micron cũng đã ra mắt SSD trung tâm dữ liệu PCIe Gen6 đầu tiên trong ngành trong sản xuất số lượng lớn. SSD Micron 9650 tăng gấp đôi hiệu suất đọc của người tiền nhiệm Gen5, mang lại thông lượng đọc tuần tự lên tới 28 GB/s và 5.5 triệu IOPS đọc ngẫu nhiên. Hiệu suất này được thiết kế riêng cho khối lượng công việc đào tạo và suy luận AI chạy trên các kiến trúc như BlueField-4 STX của NVIDIA. Để mở rộng hơn nữa danh mục sản phẩm của mình, Micron cũng đang sản xuất các mô-đun SOCAMM2 mới cho nền tảng Vera Rubin, có thể cho phép lên tới 2TB bộ nhớ và 1.2 TB/s băng thông trên mỗi CPU, củng cố chiến lược giải pháp đầu cuối cho trung tâm dữ liệu.
Bùng nổ AI Thúc đẩy Cổ phiếu Tăng 34% trong khi Chu kỳ Thị trường Vẫn là Rủi ro
Thị trường đã đền đáp chiến lược chuyển đổi sang bộ nhớ AI hiệu suất cao của Micron, với cổ phiếu của hãng tăng 34% tính đến thời điểm hiện tại vào năm 2026. Hiệu suất này được thúc đẩy bởi sự bùng nổ cơ sở hạ tầng AI, với các nhà cung cấp siêu quy mô như Microsoft, Alphabet và Amazon dự kiến sẽ chi từ 600 tỷ đến 700 tỷ đô la cho các trung tâm dữ liệu trong năm nay. Với bộ nhớ đóng vai trò là nút thắt cổ chai quan trọng, chỉ riêng thị trường HBM toàn cầu được dự báo sẽ mở rộng từ 35 tỷ đô la vào năm 2025 lên 100 tỷ đô la vào năm 2028. Bộ sản phẩm mới nhất của Micron định vị hãng để trực tiếp nắm bắt sự tăng trưởng này. Tuy nhiên, một số nhà phân tích cảnh báo rằng thị trường bộ nhớ vẫn mang tính chu kỳ. Mối lo ngại vẫn tồn tại rằng giá cả tăng cao một cách giả tạo và các hạn chế nguồn cung cuối cùng có thể thúc đẩy các khách hàng lớn giảm chi tiêu vốn, tạo ra những trở ngại tiềm tàng cho nhu cầu trong tương lai mặc dù tâm lý lạc quan hiện tại.