Sự bùng nổ nhu cầu về trí tuệ nhân tạo đang dẫn đến việc tái phân bổ triệt để chi tiêu của trung tâm dữ liệu sang bộ nhớ, với tỷ trọng vốn đầu tư dự kiến sẽ đạt gần một phần ba tổng chi tiêu vào năm 2026, tăng từ mức chỉ 8% vào năm 2023. Sự thay đổi đáng kể này, được dự báo bởi công ty nghiên cứu SemiAnalysis, cho thấy một giai đoạn giá cả tăng vọt và thiếu hụt nguồn cung đối với các thành phần quan trọng như Bộ nhớ băng thông cao (HBM) và DRAM.
Báo cáo dự báo rằng giá DRAM sẽ tăng hơn gấp đôi vào năm 2026, với các đợt tăng tiếp theo ở mức hai con số vào năm 2027. "Sự gia tăng chi phí là chưa từng có", Giám đốc điều hành Dell Jeff Clarke cho biết trong một cuộc gọi báo cáo thu nhập, mô tả tốc độ tăng chi phí thành phần đang tác động đến ngành công nghiệp máy chủ.
Theo SemiAnalysis, tỷ trọng chi tiêu bộ nhớ trong tổng vốn đầu tư (capex) của trung tâm dữ liệu quy mô siêu lớn sẽ leo lên mức xấp xỉ 30% vào năm 2026 và thậm chí còn tăng cao hơn vào năm 2027. Công ty dự kiến HBM, loại bộ nhớ xếp chồng theo chiều dọc thiết yếu cho các bộ tăng tốc AI, sẽ vẫn trong tình trạng thiếu hụt nguồn cung cho đến năm 2027. Điều này đã ảnh hưởng đến chi phí phần cứng, với giá máy chủ B200 của Nvidia dự kiến sẽ tăng tới 20% vào cuối năm nay do chi phí bộ nhớ tăng cao.
Nút thắt cổ chai bộ nhớ sắp tới tạo ra những người thắng và kẻ thua rõ rệt. Các nhà sản xuất bộ nhớ, bao gồm Samsung, SK Hynix và Micron, sẵn sàng cho một cú hích đáng kể về doanh thu và tỷ suất lợi nhuận. Ngược lại, các nhà sản xuất máy chủ AI và các nhà cung cấp dịch vụ đám mây lớn sẽ phải đối mặt với áp lực duy trì lên tỷ suất lợi nhuận của họ. Tình trạng này cũng có thể nới rộng khoảng cách cạnh tranh giữa Nvidia và các đối thủ như AMD, vì quy mô của Nvidia cho phép họ đảm bảo mức giá "Cực kỳ ưu đãi" từ các nhà cung cấp, một mức chiết khấu không dành cho những người mua với khối lượng nhỏ hơn.
Lợi thế của Nvidia, Thách thức của AMD
SemiAnalysis lưu ý rằng việc định giá DRAM ưu đãi của Nvidia giúp nén chi phí máy chủ của họ một cách hiệu quả và che giấu mức độ nghiêm trọng của tình trạng thiếu hụt nguồn cung đối với phần còn lại của thị trường. Sức mạnh mua sắm này mang lại cho họ lợi thế đáng kể về cấu trúc chi phí so với các đối thủ cạnh tranh.
AMD, với thị phần bộ tăng tốc AI nhỏ hơn, dễ bị tổn thương hơn trước chi phí bộ nhớ leo thang và không thể yêu cầu các mức chiết khấu tương tự. Động lực này có thể cản trở khả năng cạnh tranh về giá và quy mô của họ trong một thị trường mà bộ nhớ đang trở thành yếu tố thúc đẩy chi phí chính.
Cuộc đua nguồn cung không kịp theo tốc độ
Để đáp ứng nhu cầu, các nhà sản xuất bộ nhớ lớn đang chuyển dịch năng lực sản xuất sang HBM và các sản phẩm DRAM doanh nghiệp có tỷ suất lợi nhuận cao khác. Tuy nhiên, sự xoay trục này làm hạn chế nguồn cung bộ nhớ DDR5 và LPDDR5 thông thường, đẩy giá lên trên diện rộng.
Các cơ sở sản xuất mới lớn, chẳng hạn như nhà máy HBM trị giá 9,6 tỷ đô la của Micron tại Hiroshima và các đợt mở rộng của SK Hynix tại Icheon và Cheongju, dự kiến sẽ không đóng góp sản lượng đáng kể cho đến sớm nhất là năm 2027 hoặc 2028. Theo SemiAnalysis, trong khi các nhà cung cấp đám mây đã phản ánh một phần các đợt tăng giá này vào định hướng chi tiêu năm 2026 của họ, các ước tính của Wall Street vẫn chưa tính toán đầy đủ cho đợt định giá lại dự kiến vào năm 2027, cho thấy tác động tài chính sâu hơn vẫn chưa được phản ánh vào giá.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.