Le fournisseur chinois d'infrastructures d'IA Infinigence AI a annoncé une levée de fonds de plus de 700 millions de yuans (96,5 millions de dollars) pour s'attaquer au problème critique de compatibilité puce-modèle de l'industrie de l'IA, défiant ainsi la domination logicielle de fabricants de matériel comme Nvidia. La société, dont la valorisation est désormais nettement plus élevée avec un financement total proche de 2,2 milliards de yuans, fournit une couche intermédiaire (middleware) qui permet aux modèles d'IA de fonctionner efficacement sur une large gamme de matériel, un élément crucial alors que la demande informatique s'envole.
« Nous fonctionnons comme un "réseau électrique" pour l'informatique, en faisant abstraction de la couche matérielle complexe et fragmentée pour les développeurs de modèles », a précédemment déclaré le cofondateur et PDG Wang Yu, définissant ainsi la mission de l'entreprise. Ce nouveau financement a été codirigé par Hangzhou High-tech Jin Tou Group et Huiyuan Capital.
La plateforme Agentic MaaS d'Infinigence AI a démontré sa capacité à multiplier par deux ou trois le débit du système tout en réduisant la latence de 50 %, selon les données de l'entreprise. La plateforme maintient un alignement de précision de plus de 99,9 % avec les modèles originaux et a vu son volume quotidien de Tokens croître de plus de 20 fois depuis la fin de l'année dernière, puisant dans la demande quotidienne de la Chine de plus de 140 billions de Tokens en mars.
L'investissement souligne un changement pivot, passant d'une facturation basée sur le temps de location des GPU à une « économie du Token » où l'efficacité est primordiale. En optimisant le traitement, Infinigence AI peut fournir des Tokens plus efficaces à partir du même matériel, une proposition de valeur qui a attiré des capitaux publics et des partenaires stratégiques comme l'opérateur de centres de données Qin淮数据. Cela défie directement l'approche en « jardin clos » de l'écosystème CUDA de Nvidia, qui enferme les utilisateurs dans son matériel.
Le problème « M x N »
Le problème central auquel s'attaque Infinigence AI est le dilemme « M x N » : des dizaines d'architectures de grands modèles (M) doivent être adaptées pour fonctionner sur de nombreux écosystèmes de puces d'IA incompatibles (N). Ce processus de migration engendre des coûts de R&D et de temps importants pour les développeurs de modèles, un point de friction que le middleware d'Infinigence vise à éliminer en créant une couche de traduction universelle.
La liste des investisseurs révèle une stratégie industrielle calculée. L'investissement de tête du Hangzhou High-tech Jin Tou Group, un fonds affilié à l'État, montre l'intention du gouvernement de maximiser l'efficacité de ses investissements massifs dans les infrastructures informatiques publiques. En finançant une couche d'infrastructure « logicielle », les autorités peuvent mieux utiliser une collection diversifiée de puces domestiques et étrangères, évitant ainsi la dépendance vis-à-vis des fournisseurs et améliorant le retour sur capital pour les initiatives nationales d'IA.
Un domaine encombré
Malgré sa croissance rapide, Infinigence AI doit faire face à des obstacles importants. Les géants du matériel comme Nvidia renforcent continuellement leurs piles logicielles et matérielles intégrées, ce qui rend plus difficile pour les middlewares tiers de prouver leur valeur. Pour réussir, Infinigence doit démontrer des gains de performance indispensables dans l'optimisation approfondie des compilateurs et des opérateurs. De plus, à mesure que les charges de travail de l'IA passent du cloud aux appareils de périphérie (edge) comme les voitures et les robots, l'entreprise devra prouver que son architecture peut gérer efficacement des réseaux informatiques décentralisés et limités en énergie.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.