Arrcus và NVIDIA đặt mục tiêu giảm độ trễ 40%
Arrcus đang tích hợp phần mềm mạng của mình với phần cứng của NVIDIA để xây dựng một cấu trúc hiệu quả hơn cho khối lượng công việc trí tuệ nhân tạo. Được công bố vào ngày 16 tháng 3 năm 2026, tại hội nghị NVIDIA GTC, sự hợp tác này kết hợp Mạng lưới Suy luận Arrcus (AINF) với cơ sở hạ tầng AI của NVIDIA, bao gồm khung Dynamo, DPU BlueField-3 và nền tảng mạng Ethernet Spectrum-X. Mục tiêu là tạo ra một mạng lưới thống nhất, nhận biết chính sách, có thể quản lý lưu lượng AI một cách thông minh trên các trung tâm dữ liệu, môi trường đám mây và các vị trí biên.
Quan hệ đối tác này nhằm mục đích mang lại những cải thiện đáng kể về hiệu suất cho các ứng dụng AI. Arrcus dự kiến hệ thống tích hợp sẽ giảm độ trễ đầu cuối 40% và giảm chi phí cho mỗi lần suy luận 30%. Điều này giải quyết một nút thắt quan trọng khi các mô hình AI trở nên phổ biến hơn.
AI đang bước vào kỷ nguyên suy luận, nơi mạng lưới trở thành mặt phẳng điều khiển cho hiệu suất và kinh tế.
— Shekar Ayyar, Chủ tịch và Giám đốc điều hành, Arrcus.
Nhu cầu suy luận thúc đẩy kiến trúc mạng mới
Sự hợp tác này giải quyết một sự dịch chuyển cơ bản trong ngành AI từ đào tạo mô hình tập trung sang suy luận phân tán toàn cầu. Khi các ứng dụng như hệ thống tự động, phân tích video thời gian thực và quy trình làm việc AI tác tử trở nên phổ biến hơn, chúng đặt ra những yêu cầu mới đối với cơ sở hạ tầng mạng mà các hệ thống truyền thống không thể đáp ứng. Các khối lượng công việc này đòi hỏi độ trễ cực thấp, định tuyến dữ liệu nhận biết địa lý và tận dụng GPU tối đa.
Theo dự báo từ McKinsey, suy luận AI có thể chiếm 40% khối lượng công việc của trung tâm dữ liệu vào năm 2030. Arrcus đã thiết kế AINF của mình để quản lý sự phức tạp này bằng cách hoạt động như một "AI nhận biết chính sách" cho mạng. Nó định tuyến lưu lượng truy cập một cách thông minh dựa trên các chính sách do nhà điều hành xác định về độ trễ, mức tiêu thụ điện năng hoặc chủ quyền dữ liệu. Arrcus tuyên bố phương pháp này có thể giảm thời gian tạo token đầu tiên, một chỉ số quan trọng về khả năng phản hồi, lên đến 60%.
Arrcus mở rộng hệ sinh thái với Lightstorm và Fujitsu
Để đẩy nhanh việc triển khai, Arrcus đang xây dựng một hệ sinh thái các đối tác chiến lược. Nhà cung cấp kết nối Lightstorm sẽ sử dụng giải pháp AINF để cung cấp các dịch vụ suy luận quy mô lớn, thời gian thực trên khắp khu vực Châu Á - Thái Bình Dương, tích hợp nó với nền tảng mạng dưới dạng dịch vụ (NaaS) của riêng mình, Polarin. Điều này cung cấp một lộ trình thị trường rõ ràng cho các hyperscaler và doanh nghiệp ở Châu Á.
Các hợp tác sâu hơn với các nhà cung cấp phần cứng củng cố chiến lược của Arrcus nhằm cung cấp một giải pháp thay thế phi tập trung cho các nhà cung cấp mạng hiện tại. Công ty đang hợp tác với Fujitsu để ghép AINF với bộ xử lý suy luận AI Monaka dựa trên Arm mới của Fujitsu. Các hợp tác bổ sung với nhà cung cấp white-box UfiSpace và công ty cơ sở hạ tầng tính toán Lanner mở rộng phạm vi các giải pháp phần cứng tối ưu hóa AI có sẵn để chạy phần mềm của Arrcus.