Micron Technology Inc. (MU) đã tăng hơn 5% vào thứ Hai lên mức cao kỷ lục, dẫn đầu đợt tăng giá rộng khắp trong lĩnh vực bộ nhớ và lưu trữ khi niềm tin của nhà đầu tư vào một siêu chu kỳ kéo dài do trí tuệ nhân tạo thúc đẩy ngày càng lớn.
Đợt tăng giá này phản ánh một thị trường thừa nhận rằng nhu cầu tính toán do AI thúc đẩy tiếp tục vượt xa mong đợi, tạo ra một vòng phản hồi tích cực cho các nhà cung cấp linh kiện. Tâm lý này đã được lặp lại trong các ghi chú phân tích gần đây, chẳng hạn như báo cáo từ Stifel, nhấn mạnh rằng "nhu cầu tính toán do AI thúc đẩy tiếp tục chạy cao hơn dự kiến trên cả kiến trúc tăng tốc và kiến trúc đa dụng" trong một bản cập nhật gần đây về ngành bán dẫn.
Sự gia tăng cổ phiếu của công ty có trụ sở tại Boise, Idaho này là một phần của xu hướng rộng lớn hơn, với nhà cung cấp phần cứng lưu trữ Seagate Technology (STX) tăng hơn 2% và Roundhill Memory ETF (DRAM) tăng hơn 4%. Động thái này đã vượt qua các chỉ số thị trường rộng lớn hơn, với Nasdaq Composite tập trung vào công nghệ tăng 1,22% trong ngày. Đợt tăng giá được hỗ trợ bởi các nền tảng cơ bản mạnh mẽ trong thị trường bộ nhớ, nơi giá DRAM liên tục leo thang. Một báo cáo từ ETNews tại Hàn Quốc lưu ý rằng Samsung, một đối thủ cạnh tranh lớn, đã tăng gấp đôi giá DRAM trong quý đầu tiên và thực hiện thêm một đợt tăng 30% nữa trong quý thứ hai.
Sự tăng trưởng bền vững của cổ phiếu bộ nhớ báo hiệu một sự thay đổi cấu trúc trong ngành bán dẫn vốn nổi tiếng có tính chu kỳ. Các khoản chi tiêu vốn khổng lồ cho cơ sở hạ tầng AI của các gã khổng lồ đám mây và doanh nghiệp đòi hỏi một lượng lớn bộ nhớ băng thông cao (HBM) để đóng gói cùng với các đơn vị xử lý đồ họa (GPU) từ các công ty dẫn đầu như Nvidia. Theo công ty nghiên cứu thị trường Gartner, xu hướng này dự kiến sẽ thúc đẩy chi tiêu bán dẫn toàn thế giới lên 1.300 tỷ USD vào năm 2026, đánh dấu mức tăng trưởng lớn nhất trong hai thập kỷ.
Siêu chu kỳ AI thúc đẩy nhu cầu bộ nhớ
Động lực cốt lõi của đợt tăng giá này là sự khao khát không ngừng đối với HBM, một yếu tố then chốt cho các bộ xử lý mạnh mẽ dùng để huấn luyện và vận hành các mô hình ngôn ngữ lớn. Khi các nhà sản xuất chip AI đẩy lùi các giới hạn về hiệu suất, nhu cầu về các kho lưu trữ bộ nhớ nhanh hơn và lớn hơn cũng tăng lên tương ứng.
Các xưởng đúc chip như Taiwan Semiconductor Manufacturing Co. (TSMC), đơn vị cung cấp chip cho Nvidia và các đối tác AI khác, gần đây đã báo cáo doanh thu quý I tăng 35% so với cùng kỳ năm ngoái, viện dẫn nhu cầu AI quá lớn tiếp tục vượt xa nguồn cung. Sự tắc nghẽn ở cấp độ xưởng đúc này có tác động dây chuyền, thắt chặt thị trường cho tất cả các linh kiện hiệu suất cao, bao gồm cả bộ nhớ.
Hạn chế nguồn cung và quyền lực về giá
Việc ngành công nghiệp chuyển sang sản xuất các chip HBM phức tạp và có lợi nhuận cao hơn đang làm thắt chặt năng lực sản xuất sẵn có cho bộ nhớ DRAM và flash NAND thông thường. Động lực này đang trao quyền lực về giá đáng kể cho các nhà sản xuất như Micron, Samsung và SK Hynix.
Với việc các công ty AI lớn như Meta Platforms, Google và OpenAI đảm bảo các hợp đồng dài hạn, quy mô lớn cho phần cứng AI, nhu cầu về bộ nhớ đang trở nên ít mang tính chu kỳ hơn và thiên về một câu chuyện tăng trưởng dài hạn. Khả năng dự báo này cho phép các nhà sản xuất bộ nhớ chốt được các hợp đồng dài hạn có lợi, giảm bớt biến động và hỗ trợ các mức định giá cao hơn.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.