Nvidia tích hợp IP Groq trị giá 20 tỷ USD để suy luận AI độ trễ thấp
Tại hội nghị GTC 2026, Nvidia đã ra mắt giá đỡ suy luận Groq LPX, sản phẩm chính đầu tiên xuất phát từ thương vụ mua lại tài sản trí tuệ và đội ngũ Groq trị giá 20 tỷ USD. Hệ thống này tích hợp kiến trúc đơn vị xử lý độ trễ thấp (LPU) của Groq với GPU của Nvidia để tối ưu hóa suy luận AI. Sử dụng kỹ thuật gọi là "Attention FFN Disaggregation", hệ thống ủy quyền các tác vụ dựa trên thế mạnh phần cứng: GPU quản lý các tính toán chú ý động, trong khi các chip LPU LP30 mới xử lý các tính toán mạng truyền thẳng (FFN) tĩnh, giảm đáng kể độ trễ phản hồi trong các ứng dụng AI tương tác.
Điều quan trọng đối với các nhà đầu tư là chip LP30 được sản xuất trên quy trình SF4 của Samsung và không sử dụng Bộ nhớ băng thông cao (HBM). Điều này có nghĩa là hệ thống LPX mới đại diện cho năng lực sản xuất và doanh thu tăng thêm cho Nvidia, vì nó không tiêu thụ các khe sản xuất N3 khan hiếm của TSMC hoặc nguồn cung HBM, một lợi thế cạnh tranh then chốt không dễ dàng sao chép.
Giá đỡ Vera ETL256 chứa 256 CPU để phá vỡ các nút thắt AI
Để giải quyết nút thắt CPU ngày càng tăng trong các hoạt động AI quy mô lớn, Nvidia đã giới thiệu Vera ETL256. Hệ thống làm mát bằng chất lỏng, mật độ cao này chứa 256 CPU Vera mới của hãng vào một giá đỡ duy nhất. Thiết kế này trực tiếp nhắm mục tiêu vào các yêu cầu xử lý song song khổng lồ của các tác vụ như chuẩn bị dữ liệu và học tăng cường, nơi tính sẵn có của CPU có thể hạn chế việc sử dụng GPU tổng thể. Bằng cách tích hợp mật độ tính toán đến mức tất cả các kết nối trong giá đỡ có thể được thực hiện bằng cáp đồng, Nvidia loại bỏ nhu cầu về các bộ thu phát quang học đắt tiền hơn trong giá đỡ, bù đắp chi phí làm mát bằng chất lỏng.
Cùng với giá đỡ CPU, Nvidia đã công bố kiến trúc tham chiếu lưu trữ STX. Kiến trúc này tiêu chuẩn hóa cấu hình của các hệ thống lưu trữ cho AI, chỉ định sự kết hợp cần thiết của ổ đĩa, CPU Vera, DPU BlueField và các thành phần mạng. Được hỗ trợ bởi các nhà cung cấp lưu trữ lớn bao gồm Dell, HPE và IBM, kiến trúc STX củng cố sự mở rộng của Nvidia từ tính toán và mạng sang lớp lưu trữ, một lĩnh vực trước đây do các công ty khác kiểm soát.
Nvidia đặt mục tiêu chiếm lĩnh toàn bộ thị trường cơ sở hạ tầng AI
Việc ra mắt kết hợp các hệ thống LPX, Vera ETL256 và STX báo hiệu một bước chuyển chiến lược rõ ràng. Nvidia đang tích cực cung cấp toàn bộ ngăn xếp cơ sở hạ tầng AI, tạo ra một hệ sinh thái tích hợp sâu rộng nhằm mở rộng sự thống trị thị trường của mình. Chiến lược nền tảng này đã và đang nhận được sự quan tâm, với các đối tác như Cadence và HPE công bố các giải pháp mới được xây dựng trên phần cứng mới nhất của Nvidia. Các thông báo này cung cấp một lộ trình cụ thể về cách Nvidia dự định đạt được dự báo của CEO Jensen Huang về việc đảm bảo các đơn đặt hàng hệ thống trị giá 1 nghìn tỷ USD đến năm 2027.
Bằng cách thâm nhập một cách có hệ thống vào thị trường CPU và lưu trữ, Nvidia đang định vị mình để chiếm một phần lớn hơn đáng kể tổng chi tiêu cho phần cứng AI. Động thái này làm tăng cường cạnh tranh cho các đối thủ hiện có trong các phân khúc này và củng cố vai trò của Nvidia như nhà cung cấp trung tâm cho việc xây dựng cơ sở hạ tầng khổng lồ của ngành AI.