Arrcus et NVIDIA visent une réduction de 40% de la latence
Arrcus intègre son logiciel de mise en réseau au matériel de NVIDIA pour construire une infrastructure plus efficace pour les charges de travail d'intelligence artificielle. Annoncée le 16 mars 2026, lors de la conférence NVIDIA GTC, cette collaboration combine le Arrcus Inference Network Fabric (AINF) avec l'infrastructure IA de NVIDIA, y compris le framework Dynamo, les DPU BlueField-3 et les plateformes de mise en réseau Ethernet Spectrum-X. L'objectif est de créer un réseau unifié et sensible aux politiques, capable de gérer intelligemment le trafic IA à travers les centres de données, les environnements cloud et les emplacements périphériques.
Le partenariat vise à offrir des gains de performance significatifs pour les applications d'IA. Arrcus prévoit que le système intégré réduira la latence de bout en bout de 40 % et diminuera le coût par inférence de 30 %. Cela résout un goulot d'étranglement critique à mesure que les modèles d'IA se généralisent.
L'IA entre dans son ère d'inférence, où le réseau devient le plan de contrôle pour la performance et l'économie.
— Shekar Ayyar, Président-directeur général d'Arrcus.
La demande d'inférence stimule une nouvelle architecture réseau
Cette collaboration aborde un changement fondamental dans l'industrie de l'IA, passant de l'entraînement de modèles centralisés à l'inférence distribuée globalement. À mesure que des applications telles que les systèmes autonomes, l'analyse vidéo en temps réel et les flux de travail d'IA agentique deviennent plus courants, elles imposent de nouvelles exigences à l'infrastructure réseau que les systèmes traditionnels ne peuvent pas satisfaire. Ces charges de travail nécessitent une latence ultra-faible, un routage de données géoconscient et une utilisation maximale du GPU.
Selon une projection de McKinsey, l'inférence d'IA pourrait représenter 40 % des charges de travail des centres de données d'ici 2030. Arrcus a conçu son AINF pour gérer cette complexité en agissant comme une « IA sensible aux politiques » pour le réseau. Il achemine intelligemment le trafic en fonction des politiques définies par l'opérateur pour la latence, la consommation d'énergie ou la souveraineté des données. Arrcus déclare que cette approche peut réduire le temps de premier jeton, une métrique clé pour la réactivité, de jusqu'à 60 %.
Arrcus élargit son écosystème avec Lightstorm et Fujitsu
Pour accélérer le déploiement, Arrcus construit un écosystème de partenaires stratégiques. Le fournisseur de connectivité Lightstorm utilisera la solution AINF pour fournir des services d'inférence en temps réel et à grande échelle dans toute la région Asie-Pacifique, en l'intégrant à sa propre plateforme réseau en tant que service (NaaS), Polarin. Cela offre une voie claire vers le marché pour les hyperscalers et les entreprises en Asie.
D'autres collaborations avec des fournisseurs de matériel solidifient la stratégie d'Arrcus visant à offrir une alternative désagrégée aux fournisseurs de réseaux en place. L'entreprise s'associe à Fujitsu pour coupler son AINF avec son nouveau processeur d'inférence IA Monaka basé sur Arm. Des partenariats supplémentaires avec le fournisseur de boîtiers blancs UfiSpace et la firme d'infrastructure informatique Lanner élargissent l'éventail des solutions matérielles optimisées pour l'IA disponibles pour exécuter le logiciel d'Arrcus.