Tin đồn Nvidia khiến KOSPI giảm 10% trước khi phục hồi
Một báo cáo cho biết Nvidia có kế hoạch công bố chip suy luận AI mới sử dụng kiến trúc SRAM trên chip của Groq tại hội nghị GTC vào tháng 3 đã gây ra làn sóng chấn động trên thị trường chứng khoán Hàn Quốc. Các nhà đầu tư đã phản ứng với tin tức này bằng cách bán mạnh cổ phiếu chip nhớ, do lo ngại rằng việc chuyển sang SRAM sẽ làm xói mòn nhu cầu đối với Bộ nhớ băng thông cao (HBM) và DRAM, các sản phẩm chủ lực của các gã khổng lồ như Samsung Electronics và SK Hynix. Áp lực bán tháo đã khiến chỉ số KOSPI chuẩn của Hàn Quốc giảm hơn 10% trong hai ngày, đánh dấu mức giảm tồi tệ nhất trong hai ngày kể từ năm 2008.
Tuy nhiên, đợt suy giảm này chỉ kéo dài trong thời gian ngắn. Khi phân tích thị trường làm rõ thực tế kỹ thuật và kinh tế của công nghệ SRAM, một đợt phục hồi mạnh mẽ đã diễn ra. Chỉ số KOSPI đã phục hồi 11%, trong khi cổ phiếu trung tâm của sự hoảng loạn, SK Hynix và Samsung Electronics, đã tăng vọt lần lượt 15% và 13%, đảo ngược các khoản lỗ trước đó.
Chi phí và mật độ của SRAM cản trở việc thay thế HBM
Sự hoảng loạn ban đầu của thị trường bắt nguồn từ sự hiểu lầm cơ bản về các công nghệ bộ nhớ, mà các nhà phân tích tại KIS đã gọi là "sự hiểu biết tồi về bộ nhớ". Mặc dù SRAM mang lại lợi thế về tốc độ truy cập, nhưng nó có mật độ vật lý thấp hơn và chi phí sản xuất cao hơn đáng kể so với DRAM. Với cùng một dung lượng lưu trữ, một chip SRAM yêu cầu diện tích khuôn silicon gấp năm đến mười lần so với một chip DRAM, khiến việc sử dụng nó làm giải pháp bộ nhớ chính trong các mô hình AI quy mô lớn trở nên quá tốn kém.
Trong lịch sử, vai trò của SRAM đã bị giới hạn trong các ứng dụng yêu cầu độ trễ cực thấp, chẳng hạn như bộ đệm CPU hoặc bộ đệm trên chip. Nó không được thiết kế để lưu trữ các bộ dữ liệu khổng lồ cần thiết để huấn luyện và chạy các mô hình AI lớn, một vai trò mà HBM và DRAM vượt trội nhờ mật độ và hiệu quả chi phí vượt trội.
Thị trường bộ nhớ đa dạng hóa báo hiệu TAM lớn hơn
Thay vì là một mối đe dọa, việc Nvidia khám phá kiến trúc SRAM báo hiệu một động thái chiến lược nhằm tối ưu hóa hiệu suất cho các khối lượng công việc AI cụ thể, có giá trị cao. Công nghệ này lý tưởng cho các ứng dụng yêu cầu phản ứng thời gian thực và di chuyển dữ liệu tối thiểu, chẳng hạn như robot, lái xe tự động và các tác vụ suy luận trung tâm dữ liệu chuyên biệt. Xu hướng này đã được thực hiện, với OpenAI đang triển khai các chip dựa trên SRAM của Cerebras cho các dịch vụ suy luận có giá cao.
Việc áp dụng các giải pháp dựa trên SRAM dự kiến sẽ tạo ra một bức tranh bộ nhớ phức tạp hơn, đa tầng. Trong hệ thống phân cấp tương lai này, SRAM sẽ phục vụ phân khúc độ trễ cực thấp, trong khi HBM và DRAM sẽ vẫn là những giải pháp chủ lực cho việc huấn luyện mô hình quy mô lớn và các máy chủ đa năng. Các nhà phân tích kết luận rằng sự đa dạng hóa này cuối cùng sẽ mở rộng tổng thị trường tiềm năng (TAM) cho toàn bộ ngành công nghiệp bộ nhớ, tạo ra các cơ hội tăng trưởng mới.