El proveedor chino de infraestructura de IA Infinigence AI ha anunciado una ronda de financiación de más de 700 millones de yuanes (96,5 millones de dólares) para abordar el problema crítico de compatibilidad entre chips y modelos de la industria de la IA, desafiando el dominio del software de fabricantes de hardware como Nvidia. La empresa, ahora valorada significativamente más alto con una financiación total cercana a los 2.200 millones de yuanes, proporciona una capa de middleware que permite que los modelos de IA se ejecuten de manera eficiente en una amplia gama de hardware, un elemento crucial a medida que la demanda informática se dispara.
"Operamos como una 'red eléctrica' para la computación, abstrayendo la capa de hardware compleja y fragmentada para los desarrolladores de modelos", ha declarado anteriormente el cofundador y director ejecutivo Wang Yu, enmarcando la misión de la empresa. Esta nueva financiación fue coliderada por Hangzhou High-tech Jin Tou Group y Huiyuan Capital.
La plataforma Agentic MaaS de Infinigence AI ha demostrado la capacidad de aumentar el rendimiento del sistema entre dos y tres veces, al tiempo que reduce la latencia en un 50 por ciento, según datos de la empresa. La plataforma mantiene una alineación de precisión superior al 99,9% con los modelos originales y ha visto crecer su volumen diario de tokens en más de 20 veces desde finales del año pasado, aprovechando la demanda diaria de China de más de 140 billones de tokens a partir de marzo.
La inversión destaca un cambio fundamental de la facturación basada en el tiempo de alquiler de GPU a una "economía de tokens" donde la eficiencia es primordial. Al optimizar el procesamiento, Infinigence AI puede ofrecer tokens más efectivos desde el mismo hardware, una propuesta de valor que ha atraído capital estatal y socios estratégicos como el operador de centros de datos Qin淮数据. Esto desafía directamente el enfoque de "jardín vallado" del ecosistema CUDA de Nvidia, que bloquea a los usuarios en su hardware.
El problema "M x N"
El problema central que aborda Infinigence AI es el dilema "M x N": docenas de arquitecturas de modelos grandes (M) deben adaptarse para ejecutarse en numerosos ecosistemas de chips de IA incompatibles (N). Este proceso de migración crea costos significativos de tiempo e I+D para los desarrolladores de modelos, un punto de fricción que el middleware de Infinigence pretende eliminar mediante la creación de una capa de traducción universal.
La lista de inversores revela una estrategia industrial calculada. La inversión principal de Hangzhou High-tech Jin Tou Group, un fondo afiliado al estado, muestra la intención del gobierno de maximizar la eficiencia de sus inversiones masivas en infraestructura informática pública. Al financiar una capa de infraestructura "blanda", las autoridades pueden utilizar mejor una colección diversa de chips de fabricación nacional y extranjera, evitando el bloqueo del proveedor y mejorando el retorno de capital para las iniciativas nacionales de IA.
Un campo concurrido
A pesar de su rápido crecimiento, Infinigence AI enfrenta obstáculos significativos. Los gigantes del hardware como Nvidia fortalecen continuamente sus pilas integradas de software y hardware, lo que dificulta que el middleware de terceros demuestre su valor. Para tener éxito, Infinigence debe demostrar ganancias de rendimiento indispensables en la optimización de compiladores y operadores de nivel profundo. Además, a medida que las cargas de trabajo de IA se trasladan de la nube a dispositivos periféricos como automóviles y robots, la empresa deberá demostrar que su arquitectura puede gestionar de manera eficiente redes informáticas descentralizadas y con limitaciones de energía.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.