Google está dividiendo su silicio de IA personalizado en dos líneas distintas por primera vez, una respuesta directa a un cambio en toda la industria que se aleja del simple entrenamiento de modelos y se dirige hacia el proceso de ejecución de los mismos (inferencia), que requiere más capacidad de cómputo. Las nuevas Unidades de Procesamiento de Tensores (TPU) de octava generación de la compañía, anunciadas en su conferencia Cloud Next, incluyen un potente chip para entrenamiento y otro chip independiente y más eficiente para inferencia, un movimiento que desafía el dominio de Nvidia Corp. en el mercado de hardware de IA.
"La decisión de crear dos nuevos chips fue una 'evolución natural'", dijo a los periodistas el CEO de Google Cloud, Thomas Kurian, añadiendo que los nuevos chips fueron diseñados para la eficiencia energética. "Sentimos que la eficiencia energética se convertiría en una limitación a medida que la gente siguiera escalando tanto el entrenamiento como la inferencia".
La nueva gama cuenta con el TPU 8t, diseñado para el proceso intensivo de entrenamiento de modelos de IA a gran escala, y el TPU 8i, que está optimizado para la tarea de inferencia, de menor intensidad pero mayor volumen: ejecutar los modelos para generar respuestas o realizar acciones. Google dijo que ambos chips, que representan un salto significativo respecto al TPU Ironwood de séptima generación del año pasado, estarán disponibles de forma general a finales de este año. El TPU 8i cuenta específicamente con un gran aumento en la memoria de alto ancho de banda (HBM), abordando el "muro de la memoria" que puede ralentizar las aplicaciones de IA agéntica.
Esta división estratégica es la apuesta de Google por que la próxima gran ola de la inteligencia artificial sean los "agentes": sistemas de IA autónomos que pueden razonar, planificar y ejecutar tareas de varios pasos en nombre del usuario. "La IA está evolucionando de responder preguntas a razonar y tomar medidas", dijeron los jefes de infraestructura de Google Amin Vahadat y Mark Lohmeyer en una publicación de blog. Este cambio requiere una cantidad masiva de cómputo de inferencia, un segmento de mercado al que Nvidia también ha estado apuntando con nuevos chips y acuerdos de licencia.
Para acelerar este cambio agéntico, Google también lanzó Gemini Enterprise Agent Platform, un sistema unificado para construir y gestionar agentes de IA, respaldado por un nuevo fondo de 750 millones de dólares para ayudar a sus socios, incluidos Accenture, Deloitte y Oracle, a construir y desplegar estas soluciones. La plataforma proporciona acceso a más de 200 modelos de IA, incluyendo la propia familia Gemini de Google y modelos de terceros de empresas como Anthropic, que es un importante cliente de las TPU de Google Cloud.
El paso de fabricar silicio propio más capaz podría tener importantes implicaciones financieras. Los ingresos de Google Cloud saltaron un 48 por ciento hasta los 17.700 millones de dólares en el cuarto trimestre de 2025, impulsados por la demanda de IA. Al desarrollar chips personalizados que pueden reducir su dependencia de Nvidia, Google puede reducir potencialmente los costes y mejorar los márgenes. Morgan Stanley estimó en una nota de diciembre que la venta de 500.000 chips TPU podría añadir aproximadamente 13.000 millones de dólares en ingresos al balance de Google en 2027.
Los nuevos chips forman parte de un conjunto más amplio de anuncios destinados a crear una pila tecnológica completa y preparada para agentes. Esto incluye el "Agentic Data Cloud", una arquitectura de datos nativa de IA, y nuevas soluciones de ciberseguridad impulsadas por IA desarrolladas con su reciente adquisición, Wiz. Al controlar toda la pila, desde el hardware personalizado hasta la plataforma de creación de agentes, Google está haciendo una fuerte jugada para convertirse en el proveedor de infraestructura fundamental para la próxima era de la IA.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.