Arrcus y NVIDIA apuntan a una reducción del 40% en la latencia
Arrcus está integrando su software de redes con el hardware de NVIDIA para construir un tejido más eficiente para las cargas de trabajo de inteligencia artificial. Anunciada el 16 de marzo de 2026, en la conferencia NVIDIA GTC, la colaboración combina el Arrcus Inference Network Fabric (AINF) con la infraestructura de IA de NVIDIA, incluyendo el framework Dynamo, los DPU BlueField-3 y las plataformas de red Ethernet Spectrum-X. El objetivo es crear una red unificada y consciente de las políticas que pueda gestionar inteligentemente el tráfico de IA a través de centros de datos, entornos de nube y ubicaciones de borde.
La asociación tiene como objetivo ofrecer mejoras significativas de rendimiento para las aplicaciones de IA. Arrcus proyecta que el sistema integrado reducirá la latencia de extremo a extremo en un 40% y disminuirá el costo por inferencia en un 30%. Esto aborda un cuello de botella crítico a medida que los modelos de IA se vuelven más generalizados.
La IA está entrando en su era de inferencia, donde la red se convierte en el plano de control para el rendimiento y la economía.
— Shekar Ayyar, Presidente y CEO de Arrcus.
La demanda de inferencia impulsa una nueva arquitectura de red
La colaboración aborda un cambio fundamental en la industria de la IA, desde el entrenamiento de modelos centralizados hasta la inferencia distribuida globalmente. A medida que aplicaciones como los sistemas autónomos, el análisis de video en tiempo real y los flujos de trabajo de IA agéntica se vuelven más comunes, imponen nuevas demandas a la infraestructura de red que los sistemas tradicionales no pueden satisfacer. Estas cargas de trabajo requieren una latencia ultrabaja, enrutamiento de datos geo-consciente y máxima utilización de la GPU.
Según una proyección de McKinsey, la inferencia de IA podría representar el 40% de las cargas de trabajo de los centros de datos para 2030. Arrcus diseñó su AINF para gestionar esta complejidad actuando como una "IA consciente de las políticas" para la red. Enruta inteligentemente el tráfico basándose en las políticas definidas por el operador para la latencia, el consumo de energía o la soberanía de los datos. Arrcus afirma que este enfoque puede reducir el tiempo hasta el primer token, una métrica clave para la capacidad de respuesta, hasta en un 60%.
Arrcus expande el ecosistema con Lightstorm y Fujitsu
Para acelerar la implementación, Arrcus está construyendo un ecosistema de socios estratégicos. El proveedor de conectividad Lightstorm utilizará la solución AINF para ofrecer servicios de inferencia a gran escala y en tiempo real en toda la región de Asia-Pacífico, integrándola con su propia plataforma de red como servicio (NaaS), Polarin. Esto proporciona un camino claro hacia el mercado para hiperescaladores y empresas en Asia.
Otras colaboraciones con proveedores de hardware solidifican la estrategia de Arrcus de ofrecer una alternativa desagregada a los proveedores de redes existentes. La compañía se asocia con Fujitsu para emparejar AINF con su nuevo procesador de inferencia de IA Monaka basado en Arm. Asociaciones adicionales con el proveedor de cajas blancas UfiSpace y la firma de infraestructura informática Lanner amplían el rango de soluciones de hardware optimizadas para IA disponibles para ejecutar el software de Arrcus.