Les plus gros clients de Nvidia deviennent ses plus grands concurrents, un virage stratégique qui pourrait remodeler le marché des infrastructures d'IA de près de 725 milliards de dollars.
Retour
Les plus gros clients de Nvidia deviennent ses plus grands concurrents, un virage stratégique qui pourrait remodeler le marché des infrastructures d'IA de près de 725 milliards de dollars.

Les actions de Nvidia Corp. ont chuté de plus de 4 % après que deux de ses plus gros clients, Google et Amazon, ont annoncé leur intention de vendre leurs puces d'accélération d'IA développées sur mesure directement aux entreprises clientes, créant ainsi un nouveau front concurrentiel pour le leader du marché.
Cette initiative menace de transformer les partenaires les plus importants de Nvidia en rivaux directs. « Cela pourrait fondamentalement perturber Nvidia », a déclaré Jay Goldberg, analyste en semi-conducteurs chez Seaport Research. « Je pense qu'il s'agit d'un risque assez important. »
Alphabet, la maison mère de Google, a annoncé qu'elle vendrait ses puces propriétaires Tensor Processing Unit (TPU) à un groupe restreint de clients externes pour une utilisation dans leurs propres centres de données dès cette année. Morgan Stanley estime que la vente de seulement 500 000 TPU pourrait ajouter environ 13 milliards de dollars de revenus pour Google d'ici 2027. Amazon a suivi avec sa propre déclaration, le PDG Andy Jassy affirmant qu'il y a de « bonnes chances » que l'entreprise propose des racks de ses puces Trainium au-delà de ses propres services cloud d'ici deux ans.
Pour Nvidia, qui détient environ 90 % du marché des accélérateurs d'IA, ces annonces représentent un défi à long terme pour ses activités à forte marge. Bien que le leadership de l'entreprise ne soit pas immédiatement en danger, le passage des fournisseurs de cloud à grande échelle à la fourniture de leur propre silicium marque un changement structurel dans le paysage des puces.
Le pivot stratégique de Google et Amazon consiste à proposer des alternatives plus rentables et spécialisées aux GPU puissants mais coûteux de Nvidia, comme le H100 qui a un coût de fabrication de plus de 3 000 dollars et se vend beaucoup plus cher. Les deux entreprises présentent leurs puces personnalisées comme étant mieux adaptées à des charges de travail d'IA spécifiques, en particulier l'inférence — le processus d'exécution de modèles entraînés — qui devient une part de plus en plus importante des coûts du cloud computing à mesure que les applications d'IA se développent.
Google a déjà annoncé un nouveau TPU conçu spécifiquement pour l'inférence. Alors que ses puces étaient historiquement adaptées à ses services internes, les proposer à des clients externes constitue un défi direct au matériel de Nvidia. De même, l'activité Trainium d'Amazon aurait dépassé un taux de revenus annualisé de 20 milliards de dollars, selon Bloomberg, affichant une dynamique significative. Cette expansion intervient alors que les géants de la technologie devraient investir collectivement jusqu'à 725 milliards de dollars dans les infrastructures d'IA d'ici 2026.
Cependant, tous les analystes ne voient pas cela comme un jeu à somme nulle. Stacy Rasgon, de Bernstein Research, a soutenu que le problème central de l'industrie de l'IA est un manque d'offre, et non un manque de demande. Avec des besoins de calcul croissant de manière exponentielle, il suggère que toute entreprise disposant d'une production de puces viable vendra probablement tout ce qu'elle peut fabriquer. Nvidia elle-même détient 95,2 milliards de dollars d'engagements d'approvisionnement de la part d'acteurs majeurs de l'IA, dont OpenAI, Anthropic et Meta.
Beatriz Valle, analyste principale chez GlobalData, a qualifié la décision de Google et Amazon de « décision extraordinaire » qui diversifiera le secteur des puces. « Ce processus prendra des années mais il est désormais irréversible », a-t-elle déclaré. Passer du statut de consommateur de puces à celui de vendeur de puces n'est pas simple. Les analystes notent que Google et Amazon devront mettre en place de vastes écosystèmes de support, de formation et de service pour rivaliser avec la barrière défensive que Nvidia a construite au fil des ans.
« Vendre des produits est très différent de donner accès à ceux-ci », a déclaré Alvin Nguyen, analyste principal chez Forrester, soulignant le solide réseau de logiciels et de support qui fait de Nvidia un choix facile pour les entreprises. De plus, les puces personnalisées de Google et Amazon sont hautement propriétaires et conçues pour leurs propres architectures de centres de données, ce qui pourrait poser un défi pour une adoption massive, selon Patrick Moorhead de Moor Insights & Strategy.
Pourtant, la tendance est claire. Meta poursuivant également son propre silicium MTIA personnalisé, les plus grands acteurs de l'IA s'intègrent verticalement de manière agressive. En développant leurs propres puces, ces entreprises peuvent optimiser leurs logiciels et charges de travail spécifiques, contrôler leur propre feuille de route technologique et capturer une part plus importante de la chaîne de valeur de l'IA en pleine expansion.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.