Uber renforce sa dépendance à l'égard du silicium personnalisé d'Amazon, en étendant son utilisation des processeurs AWS Graviton et en devenant la dernière grande entreprise technologique à tester l'accélérateur d'IA Trainium3, un concurrent direct des puces dominantes de Nvidia.
« Le transfert des charges de travail de base vers Graviton a déjà réduit nos coûts de calcul de 15 % », a déclaré un responsable de l'ingénierie chez Uber. « Tester Trainium3 est la prochaine étape pour optimiser nos modèles d'apprentissage automatique en termes de coût et de performance. »
L'accord, annoncé le 7 avril, verra Uber migrer une plus grande partie de ses services de transport et de logistique vers ses processeurs Graviton basés sur ARM. Bien qu'Amazon n'ait pas divulgué les spécifications complètes de Trainium3, il affirme que la puce offre un rapport prix-performance jusqu'à 40 % supérieur à celui des GPU Nvidia comparables pour l'entraînement de grands modèles de langage.
L'adoption par un utilisateur à gros volume comme Uber est une validation significative pour la stratégie de puces de plusieurs milliards de dollars d'Amazon (AMZN) et une menace concurrentielle croissante pour la part de marché de 80 % de Nvidia (NVDA) dans les centres de données d'IA. Pour Uber (UBER), cela représente un pari à long terme pour réduire la dépendance vis-à-vis des fournisseurs technologiques et contrôler les coûts d'infrastructure.
L'expansion stratégique est motivée par les coûts de calcul immenses associés à l'entraînement et à l'exécution de modèles d'IA, qui sont essentiels aux algorithmes de tarification, d'itinéraire et de répartition d'Uber. En utilisant les puces conçues sur mesure par Amazon, Uber vise à créer une pile d'infrastructure plus rentable et plus économe en énergie, réduisant sa dépendance à l'égard de matériel polyvalent plus coûteux de fournisseurs tiers comme Nvidia et Intel.
La poussée d'Amazon dans le silicium personnalisé reflète les efforts de Google et Microsoft pour contrôler leur propre destin matériel et réduire les dépenses opérationnelles. Alors que les GPU H100 et les prochains B200 de Nvidia restent la norme de l'industrie pour l'entraînement à l'IA haute performance, la montée en puissance d'alternatives internes « assez bonnes » et plus rentables comme Trainium pour l'inférence et les charges de travail d'entraînement spécifiques est un récit croissant. Cette tendance menace d'éroder le quasi-monopole de Nvidia sur le matériel d'IA.
Pour les investisseurs, cela signale que le marché des puces d'IA n'est pas un scénario où le gagnant rafle tout. La capacité d'Amazon à remporter des charges de travail auprès d'un client majeur comme Uber donne de la crédibilité à ses ambitions en matière de puces, ce qui pourrait stimuler le récit de croissance d'AWS. Bien qu'il ne s'agisse pas d'une menace immédiate pour les revenus de Nvidia, qui sont garantis par des carnets de commandes massifs, cela souligne un risque à long terme. Les analystes de Morgan Stanley ont noté que l'adoption par les entreprises de puces d'IA alternatives pourrait plafonner les multiples de valorisation de Nvidia, qui se négocient actuellement à plus de 70 fois les bénéfices passés.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.