Intel está reposicionando la CPU y la IPU personalizada como elementos centrales de la infraestructura de IA, un desafío directo a la narrativa de la industria centrada en la GPU que obtuvo una importante validación del mercado esta semana.
Atrás
Intel está reposicionando la CPU y la IPU personalizada como elementos centrales de la infraestructura de IA, un desafío directo a la narrativa de la industria centrada en la GPU que obtuvo una importante validación del mercado esta semana.

Intel Corp. y Google están profundizando su colaboración plurianual para construir infraestructura de nube e IA de próxima generación, un movimiento que refuerza el papel estratégico de las unidades centrales de procesamiento (CPU) en un mercado dominado por los aceleradores gráficos. La alianza hizo que las acciones de Intel subieran aproximadamente un 33 por ciento esta semana, coronando una serie de victorias de alto perfil para el fabricante de chips.
“La IA está remodelando la forma en que se construye y escala la infraestructura”, afirmó Lip-Bu Tan, director ejecutivo de Intel, en un comunicado de prensa de la compañía. “Escalar la IA requiere más que aceleradores: requiere sistemas equilibrados. Las CPU y las IPU son fundamentales para ofrecer el rendimiento, la eficiencia y la flexibilidad que demandan las cargas de trabajo de IA modernas”.
El acuerdo ampliado verá a Google Cloud continuar desplegando los procesadores Xeon de Intel, incluidos los nuevos chips Xeon 6, en sus instancias C4 y N4 para IA y cargas de trabajo de propósito general. Google afirma que las instancias C4 basadas en Xeon 6 ofrecen un beneficio de costo total de propiedad más de 2,0 veces superior al de los sistemas predecesores. Las dos compañías también están ampliando el desarrollo conjunto de Unidades de Procesamiento de Infraestructura (IPU) personalizadas basadas en ASIC, diseñadas para descargar tareas del centro de datos de la CPU principal.
Para los inversores, la asociación valida el argumento de Intel de que la infraestructura para la inferencia de IA a escala crea un mercado distinto y sensible al rendimiento para las CPU que las GPU por sí solas no pueden abordar. A medida que el centro de gravedad del mercado de la IA se desplaza del entrenamiento a la inferencia, la eficiencia de la arquitectura de la CPU subyacente se convierte en una preocupación económica de primer orden, una dinámica que sustenta el compromiso multigeneracional de Google con la hoja de ruta Xeon de Intel.
## El argumento a favor de los “sistemas equilibrados”
El argumento central de la asociación entre Intel y Google es una respuesta directa al modelo de infraestructura de IA centrado en la GPU, que ha impulsado a Nvidia a una posición dominante en el mercado con ingresos trimestrales que alcanzan los 68.100 millones de dólares. Si bien las GPU son esenciales para el cálculo pesado del entrenamiento de modelos de IA, Intel y Google sostienen que las CPU y las IPU especializadas son críticas para los “sistemas equilibrados” necesarios para desplegar esos modelos de manera eficiente y a escala.
Amin Vahdat, tecnólogo jefe de infraestructura de IA de Google, expuso el caso desde el lado de la demanda. “Las CPU y la aceleración de infraestructura siguen siendo la piedra angular de los sistemas de IA, desde la orquestación del entrenamiento hasta la inferencia y el despliegue”, afirmó. Las IPU, en particular, mejoran la economía de los centros de datos al liberar los costosos ciclos de la CPU de la gestión de redes, almacenamiento y seguridad, permitiéndoles centrarse puramente en las cargas de trabajo de las aplicaciones. Esta descarga es crítica en entornos de hiperescala donde la gestión de la infraestructura puede consumir una parte sustancial de los recursos de cómputo.
## Una semana estratégica para Intel
El anuncio de Google Cloud fue la segunda gran victoria estratégica de Intel en una sola semana. Dos días antes, la compañía fue nombrada socio principal de fundición para Terafab, una empresa conjunta de 25.000 millones de dólares entre Tesla, SpaceX y xAI. El acuerdo compromete el nodo de proceso 18A más avanzado de Intel para el proyecto, lo que supone un importante voto de confianza en la hoja de ruta de fabricación de la empresa, largamente retrasada.
Juntos, los dos anuncios sugieren una estrategia coherente de dos vías: asegurar la demanda a largo plazo de CPUs Xeon e IPUs personalizadas con socios de hiperescala como Google, mientras se construye simultáneamente el negocio de fundición para fabricar la próxima ola de silicio de IA personalizado para empresas como Tesla y potencialmente incluso competidores como Nvidia y AMD. La respuesta del mercado, una ganancia semanal del 33 por ciento en el precio de las acciones de Intel, sugiere que los inversores están empezando a creer en la historia de la recuperación por primera vez en años.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.