Uber está profundizando su dependencia en el silicio personalizado de Amazon, ampliando su uso de procesadores AWS Graviton y convirtiéndose en la última gran firma tecnológica en probar el acelerador de IA Trainium3, un competidor directo de los chips dominantes de Nvidia.
"Cambiar las cargas de trabajo principales a Graviton ya ha reducido nuestros costes informáticos en un 15 por ciento", dijo un responsable de ingeniería de Uber. "Probar Trainium3 es el siguiente paso para optimizar nuestros modelos de aprendizaje automático en cuanto a coste y rendimiento".
El acuerdo, anunciado el 7 de abril, hará que Uber migre más de sus servicios principales de transporte compartido y logística a sus CPUs Graviton basadas en ARM. Aunque Amazon no ha revelado las especificaciones completas de Trainium3, afirma que el chip ofrece una relación precio-rendimiento hasta un 40% mejor que las GPUs Nvidia comparables para el entrenamiento de modelos de lenguaje grandes.
La adopción por parte de un usuario de alto volumen como Uber es una validación significativa para la estrategia de chips de miles de millones de dólares de Amazon (AMZN) y una creciente amenaza competitiva para la cuota de mercado del 80% de Nvidia (NVDA) en los centros de datos de IA. Para Uber (UBER), representa una jugada a largo plazo para reducir la dependencia de los proveedores tecnológicos y controlar los costes de infraestructura.
La expansión estratégica está impulsada por los inmensos costes computacionales asociados con el entrenamiento y la ejecución de modelos de IA, que son integrales para los algoritmos de precios, rutas y despacho de Uber. Al utilizar los chips diseñados a medida por Amazon, Uber pretende crear una pila de infraestructura más rentable y eficiente energéticamente, reduciendo su dependencia de hardware de propósito general más caro de terceros proveedores como Nvidia e Intel.
El impulso de Amazon hacia el silicio personalizado refleja los esfuerzos de Google y Microsoft por controlar su propio destino de hardware y reducir los gastos operativos. Si bien las GPUs H100 de Nvidia y las próximas B200 siguen siendo el estándar de la industria para el entrenamiento de IA de alto rendimiento, el auge de alternativas internas "suficientemente buenas" y más rentables como Trainium para la inferencia y cargas de trabajo de entrenamiento específicas es una narrativa creciente. Esta tendencia amenaza con socavar el casi monopolio de Nvidia en el hardware de IA.
Para los inversores, esto indica que el mercado de chips de IA no es un escenario en el que el ganador se lo lleva todo. La capacidad de Amazon para ganar cargas de trabajo de un cliente importante como Uber da credibilidad a sus ambiciones en materia de chips, impulsando potencialmente su narrativa de crecimiento de AWS. Aunque no es una amenaza inmediata para los ingresos de Nvidia, que están asegurados por carteras de pedidos masivas, resalta un riesgo a largo plazo. Los analistas de Morgan Stanley han señalado que la adopción empresarial de chips de IA alternativos podría limitar los múltiplos de valoración de Nvidia, que actualmente cotizan por encima de las 70 veces los beneficios acumulados.
Este artículo tiene fines informativos únicamente y no constituye asesoramiento de inversión.