Google está profundizando su asociación con la startup de IA Thinking Machines Lab a través de un nuevo acuerdo en la nube de miles de millones de dólares, un movimiento que intensifica la costosa batalla con Amazon y Microsoft para suministrar la infraestructura necesaria para la inteligencia artificial de vanguardia.
"Al aprovechar A4X Max y el stack integrado de IA Hypercomputer, Google Cloud nos permitió operar a una velocidad récord con la confiabilidad que exigimos", dijo Myle Ott, investigador fundador de Thinking Machines, en un comunicado.
El acuerdo, valorado en unos pocos miles de millones de dólares, otorga a Thinking Machines acceso a los sistemas de IA más recientes de Google construidos sobre los nuevos chips GB300 de Nvidia. En las pruebas iniciales, Thinking Machines vio una mejora del doble en la velocidad de entrenamiento y servicio en comparación con las GPU de la generación anterior, acelerada por el tejido de red Jupiter de Google. La startup también utilizará una suite de servicios de Google Cloud, incluyendo su motor Kubernetes y la base de datos Spanner, para dar soporte a sus cargas de trabajo de aprendizaje por refuerzo.
Esta asociación subraya la escalada de los gastos de capital necesarios para competir en la frontera de la IA. Para Google, es un movimiento crítico para asegurar un cliente de alto crecimiento y mostrar sus capacidades de infraestructura de IA frente a sus rivales. Para el mercado en general, indica que la moneda principal en la carrera de la IA no es solo el talento, sino también el acceso a computación de alto rendimiento a escala masiva.
Competencia feroz por las cargas de trabajo de IA
El acuerdo es el último de una serie de acuerdos de alto riesgo de los proveedores de la nube para asegurar el negocio de las startups de IA prometedoras. Las demandas computacionales de entrenar y desplegar modelos de IA a gran escala han creado un nuevo mercado masivo para la infraestructura de la nube, y los principales actores están gastando fuertemente para atraer y retener a clientes clave.
Precisamente esta semana, Anthropic, otro laboratorio de IA líder, firmó un nuevo acuerdo con Amazon para asegurar hasta 5 gigavatios de capacidad. Esto siguió a un acuerdo separado que Anthropic hizo con Google y Broadcom para varios gigavatios de la capacidad de TPU personalizada de Google. La naturaleza no exclusiva de estos acuerdos resalta la estrategia de nube múltiple que muchos desarrolladores de IA están adoptando, pero la escala de la asociación entre Google y Thinking Machines sugiere una integración profunda.
Thinking Machines, fundada en febrero de 2025 por la ex directora de tecnología de OpenAI, Mira Murati, ha sido un punto focal del flujo de talento y capital de la industria de la IA. La empresa recaudó una ronda semilla de $2 mil millones de dólares con una valoración de $12 mil millones de dólares poco después de su fundación y lanzó su primer producto, Tinker, una herramienta para automatizar la creación de modelos de IA de vanguardia.
Guerra de talentos y músculo técnico
Si bien el acuerdo de la nube proporciona infraestructura crucial, Thinking Machines también ha estado en el centro de la "guerra de talentos" de la industria. La startup ha visto a algunos de sus miembros fundadores e investigadores clave partir hacia empresas tecnológicas más grandes. Según se informa, Meta ha contratado al menos a siete miembros del equipo fundador, mientras que OpenAI también ha reclutado de sus filas.
A pesar de estas salidas, Thinking Machines mantiene una profundidad técnica significativa. El CTO de la empresa, Soumith Chintala, es el creador de PyTorch, uno de los marcos de IA de código abierto más utilizados. El acuerdo con Google, y su acceso al hardware de primer nivel de Nvidia, es crítico para retener y atraer a los investigadores de élite necesarios para construir modelos de próxima generación.
La asociación ofrece un vistazo al enfoque técnico de la startup, con Google destacando su capacidad para soportar las cargas de trabajo de aprendizaje por refuerzo que son centrales en la arquitectura de Tinker. Esta técnica de entrenamiento ha estado detrás de muchos avances recientes en IA y es notoriamente costosa computacionalmente, lo que justifica la escala de miles de millones de dólares del acuerdo en la nube.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.