Un par de acuerdos de 20.000 millones de dólares de OpenAI y Nvidia han encendido una guerra por el futuro de la computación de IA, desplazando el campo de batalla del entrenamiento de modelos al mercado mucho más grande de la inferencia.
Atrás
Un par de acuerdos de 20.000 millones de dólares de OpenAI y Nvidia han encendido una guerra por el futuro de la computación de IA, desplazando el campo de batalla del entrenamiento de modelos al mercado mucho más grande de la inferencia.

Una batalla estratégica por la siguiente fase de la inteligencia artificial se está intensificando, con OpenAI y Nvidia comprometiendo colectivamente más de 40.000 millones de dólares para asegurar el dominio en la inferencia de IA, el proceso de usar un modelo entrenado para generar respuestas. Los movimientos amenazan con trastocar un mercado que Nvidia ha controlado en solitario y señalan un cambio arquitectónico importante en la industria de los semiconductores.
Los primeros disparos del conflicto se produjeron en diciembre de 2025 con la discreta adquisición por parte de Nvidia de Groq, una startup especializada en chips de inferencia de alta velocidad, por 20.000 millones de dólares. El contraataque llegó el 17 de abril de 2026, cuando los informes revelaron que OpenAI gastará más de 20.000 millones de dólares en chips de la startup rival Cerebras Systems, adquiriendo una participación de hasta el 10 por ciento en la empresa. Cerebras solicitó una salida a bolsa (IPO) de 35.000 millones de dólares el mismo día.
Los dos acuerdos resaltan un reequilibrio fundamental en la industria de la IA. Si bien el entrenamiento de modelos grandes como GPT-4 es costoso desde el punto de vista computacional, es un costo de una sola vez. La inferencia, que ocurre cada vez que un usuario hace una pregunta, representa un gasto continuo y, en última instancia, mayor. Según la investigación de mercado de CES 2026, se espera que la inferencia represente dos tercios de todo el gasto en computación de IA en 2026, una cifra que algunos ejecutivos creen que podría alcanzar el 80 por ciento.
"El centro de gravedad de la industria de la IA se está desplazando rápidamente de las ejecuciones de entrenamiento puntuales a miles de millones de solicitudes de inferencia diarias", señaló un analista de tecnología. "Este no es solo un mercado más grande; es un mercado técnicamente diferente, y el dominio de Nvidia aquí ya no está garantizado".
### Se abre una brecha arquitectónica
El núcleo del conflicto radica en el diseño de los chips. Las GPU de Nvidia, como la H100, están optimizadas para los cálculos paralelos masivos requeridos para el entrenamiento. Sin embargo, su dependencia de la memoria de alto ancho de banda (HBM) externa crea un cuello de botella para la inferencia, donde la velocidad de recuperación de los pesos del modelo de la memoria es el factor limitante principal.
Cerebras y Groq han seguido un camino diferente. Sus chips, el Wafer Scale Engine (WSE) y la Language Processing Unit (LPU), respectivamente, integran grandes cantidades de SRAM ultrarrápida directamente en el silicio junto con los núcleos de procesamiento. Este diseño reduce drásticamente la latencia de la memoria, lo que permite velocidades de inferencia que, según se informa, son entre 15 y 20 veces más rápidas que las ofertas actuales de Nvidia para ciertas tareas.
La compra de Groq por 20.000 millones de dólares por parte de Nvidia es un reconocimiento tácito de esta vulnerabilidad arquitectónica. En lugar de confiar únicamente en su propia hoja de ruta de productos, como la nueva Blackwell B200 que aumenta el rendimiento de la inferencia, la empresa pagó una prima elevada para adquirir una tecnología competidora. Para el mayor vendedor de chips de IA del mundo, fue un movimiento defensivo para tapar un posible hueco en su cartera.
### La jugada ofensiva de OpenAI
En contraste, el acuerdo de OpenAI es una estrategia ofensiva clara. El mayor proveedor de modelos de IA del mundo no solo está diversificando sus proveedores; está cultivando activamente a un competidor para Nvidia. El acuerdo incluye más de 20.000 millones de dólares en adquisición de chips, warrants por una participación de hasta el 10 por ciento en Cerebras y una inversión de 1.000 millones de dólares para ayudar a construir los centros de datos necesarios para albergar el nuevo hardware.
Este movimiento refleja la estrategia histórica de Apple de integrarse profundamente y, eventualmente, controlar su cadena de suministro de chips. Al asegurar un proveedor de inferencia de alto rendimiento dedicado, OpenAI reduce su dependencia de Nvidia y gana influencia sobre el costo de ejecutar sus modelos a escala. Según se informa, la empresa también está desarrollando sus propios chips ASIC personalizados con su socio Broadcom, lo que señala un impulso multidireccional hacia la independencia computacional.
Para los inversores, la salida a bolsa de Cerebras presenta un panorama complejo. La empresa, que cotizará bajo el ticker "CBRS", ahora apunta a una valoración de 35.000 millones de dólares, un salto significativo desde su valoración de 23.000 millones de dólares en febrero de 2026 y una valoración de 8.100 millones de dólares en septiembre de 2025. Este segundo intento de salida a bolsa se produce después de que se retirara una solicitud de 2024 debido a preocupaciones de seguridad nacional sobre su entonces mayor cliente, el fondo G42 con sede en los Emiratos Árabes Unidos.
Si bien reemplazar a G42 con OpenAI como cliente principal mejora la calidad de los ingresos, no resuelve el problema subyacente de la concentración de clientes. Los inversores en la salida a bolsa apuestan a que la demanda de OpenAI se mantendrá y que Cerebras puede diversificar con éxito su base de clientes antes de que los chips internos de OpenAI se conviertan en una alternativa viable. La pregunta de los 35.000 millones de dólares es si ese optimismo ya está descontado en el precio.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.