Một nhà phân tích bán dẫn hàng đầu dự báo tình trạng mất cân bằng cung cầu đối với chip nhớ có thể khiến giá tăng vọt từ 200% đến 300% trong tương lai gần.
Quay lại
Một nhà phân tích bán dẫn hàng đầu dự báo tình trạng mất cân bằng cung cầu đối với chip nhớ có thể khiến giá tăng vọt từ 200% đến 300% trong tương lai gần.

Theo một nhà phân tích chip hàng đầu, giá bộ nhớ DRAM hiệu năng cao được sử dụng trong các máy chủ trí tuệ nhân tạo sẽ tăng gấp đôi hoặc thậm chí gấp ba do nhu cầu không ngừng từ các nhà phát triển AI vượt quá khả năng sản xuất của ngành bán dẫn. Dự báo này chỉ ra một nút thắt cổ chai đáng kể trong chuỗi cung ứng AI có thể kéo dài trong vài quý tới.
"Mọi người thường nghĩ rằng câu chuyện về bộ nhớ đang bị thổi phồng quá mức," Dylan Patel, nhà phân tích trưởng tại SemiAnalysis, cho biết trong podcast 'Invest Like the Best'. Ông đã đưa ra một luận điểm thẳng thắn rằng giá DRAM "sẽ tăng gấp đôi hoặc gấp ba kể từ đây" vì sự lệch pha giữa cung và cầu.
Lời dự báo này được đưa ra khi các nhà sản xuất bộ nhớ đã chứng kiến sự gia tăng đáng kể về lợi nhuận. SK Hynix gần đây đã báo cáo lợi nhuận tăng vọt, viện dẫn giá chip nhớ AI tăng cao. Đối thủ Micron Technology đã chứng kiến cổ phiếu của mình tăng mạnh nhờ cơn sốt bộ nhớ AI, trong khi các nhà sản xuất thiết bị như Lam Research đang nâng triển vọng của chính họ dựa trên nhu cầu kỷ lục từ khách hàng.
Việc tăng giá mạnh mẽ đối với DRAM, đặc biệt là bộ nhớ băng thông cao (HBM), sẽ thúc đẩy trực tiếp doanh thu và biên lợi nhuận cho các nhà sản xuất như SK Hynix, Samsung và Micron. Ngược lại, nó đặt ra thách thức lớn về chi phí cho các gã khổng lồ công nghệ — bao gồm Google, Microsoft và Amazon — những đơn vị đang chi hàng tỷ đô la để xây dựng các trung tâm dữ liệu AI của họ, có khả năng ảnh hưởng đến khả năng sinh lời và giá cả của các dịch vụ AI.
Tình trạng khan hiếm nguồn cung hiện tại bắt nguồn từ sự phức tạp của việc sản xuất bộ nhớ chuyên dụng cần thiết cho các ứng dụng AI. Không giống như DRAM tiêu chuẩn, HBM được sử dụng để đào tạo và vận hành các mô hình ngôn ngữ lớn là một thành phần cực kỳ phức tạp, xếp chồng nhiều lớp chip nhớ để đạt được băng thông cần thiết. Quy trình này, vốn dựa trên công nghệ đóng gói tiên tiến từ các công ty như TSMC, có tỷ lệ thành phẩm thấp hơn và chu kỳ sản xuất dài hơn nhiều. Do đó, các nhà sản xuất bộ nhớ không thể tăng nguồn cung nhanh chóng như nhu cầu đang tăng trưởng, tạo ra sự thiếu hụt mang tính cấu trúc. Công suất chuỗi cung ứng cho HBM thực tế đã được bán hết trong vài quý tới, mang lại cho người bán quyền ấn định giá đáng kể.
Dự báo này củng cố triển vọng lạc quan cho các cổ phiếu bán dẫn gắn liền với chu kỳ bộ nhớ AI. Cổ phiếu của Micron và SK Hynix đã ghi nhận mức tăng mạnh trong năm nay, và việc giá DRAM tăng gấp đôi có khả năng sẽ thúc đẩy ước tính thu nhập và định giá cổ phiếu lên cao hơn nữa. Đối với các nhà đầu tư, bài học quan trọng là việc xây dựng cơ sở hạ tầng AI không chỉ là câu chuyện của riêng Nvidia. Toàn bộ chuỗi cung ứng bán dẫn, từ các nhà cung cấp thiết bị như Lam Research đến các chuyên gia bộ nhớ, đều đang được hưởng lợi từ làn sóng chi tiêu vốn. Tuy nhiên, nó cũng đặt ra câu hỏi về tính bền vững của chi tiêu cho AI nếu chi phí các thành phần chính tiếp tục leo thang, một yếu tố có thể gây áp lực lên biên lợi nhuận của các nhà cung cấp dịch vụ đám mây.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.