Selon le PDG Jensen Huang, l'activité de Nvidia consiste à transformer les « électrons en tokens » plus efficacement que quiconque sur la planète.
Le PDG de Nvidia Corp., Jensen Huang, a monté une défense robuste des marges brutes de 70 % de son entreprise, affirmant qu'aucune plateforme concurrente de rivaux comme Google ou Amazon ne peut égaler le coût total de possession (TCO) de ses accélérateurs d'IA. Dans une interview détaillée le 15 avril, Huang a rejeté le récit selon lequel les géants du cloud érodent la part de marché de Nvidia, présentant son entreprise comme un « convertisseur d'électrons en tokens » fondamental dont la proposition de valeur reste inégalée.
« Il n'y a pas une seule plateforme dans le monde aujourd'hui qui, à ma connaissance, offre un meilleur TCO pour un centre de données d'IA que la nôtre. Pas une seule », a déclaré Huang lors de l'interview avec Dwarkesh Patel, contestant directement les affirmations d'un avantage de coût de 40 % des puces Trainium d'Amazon.
Cette réfutation vigoureuse intervient alors que les clients hyperscale, qui représentent environ 60 % des revenus de Nvidia, investissent massivement dans le développement de leurs propres puces internes. Huang a soutenu que même avec des marges élevées, l'économie favorise Nvidia, affirmant que la marge brute pour une puce ASIC personnalisée concurrente est d'environ 65 %, offrant des économies réelles minimales à un client qui changerait de fournisseur. Il a en outre révélé que la prochaine architecture Blackwell offre une amélioration allant jusqu'à 50 fois de l'efficacité énergétique par rapport à l'actuelle génération Hopper, un bond réalisé grâce à l'architecture et au logiciel, et pas seulement aux progrès de la fabrication.
L'enjeu est la maîtrise par Nvidia du marché de l'informatique d'IA, une position qui a propulsé sa valorisation au-delà de 2 000 milliards de dollars. L'argument de Huang est que l'écosystème logiciel CUDA profond et programmable de l'entreprise et les gains de performance incessants créent un fossé en termes de TCO qui rend le passage à une alternative moins flexible et plus ciblée financièrement déraisonnable, même pour les plus gros clients.
L'anomalie Anthropic
Confronté au fait que les principaux modèles d'IA de Google et d'Anthropic sont entraînés sur les propres unités de traitement de tenseurs (TPU) de Google, Huang a qualifié cela de cas particulier plutôt que de tendance. Il a soutenu que les investissements massifs précoces de Google et d'Amazon ont contraint Anthropic à utiliser leur matériel respectif.
« Sans Anthropic, d'où viendrait la croissance du TPU ? C'est 100 % Anthropic », a déclaré Huang, appliquant la même logique aux puces Trainium d'Amazon. Il a admis sa propre « erreur » de ne pas avoir réalisé l'ampleur du capital — des milliards de dollars — dont les laboratoires d'IA auraient besoin, que le capital-risque ne pouvait pas fournir, mais que les fournisseurs de cloud pouvaient offrir en échange d'engagements d'utilisation. « Je ne ferai plus la même erreur », a-t-il dit, faisant allusion aux investissements plus récents de Nvidia dans le secteur.
La chaîne d'approvisionnement, pas le cloud, est le cœur du jeu
Malgré un bilan riche en liquidités, Huang a catégoriquement rejeté l'idée que Nvidia construise son propre service cloud pour concurrencer ses clients. Il a articulé une philosophie d'entreprise consistant à faire « aussi peu que possible » en dehors de sa mission principale. « Si je ne le fais pas, quelqu'un fera du cloud », a-t-il expliqué, précisant que le rôle de Nvidia est de permettre un écosystème de partenaires comme CoreWeave, et non de devenir une société de crédit-bail financier ou d'exploitation de cloud.
Concernant la demande intense pour les GPU de son entreprise, Huang a démenti l'idée d'une guerre d'enchères pour l'allocation. Il a décrit un processus simple basé sur les bons de commande et l'état de préparation des centres de données, régi par le principe du « premier arrivé, premier servi ». La véritable contrainte à long terme sur l'expansion de l'IA n'est pas la production de puces — qui, selon lui, peut être mise à l'échelle d'ici deux à trois ans pour répondre à n'importe quelle demande — mais l'énergie. « On ne peut pas bâtir une industrie sans électricité, et c'est ce qui prend beaucoup de temps », a-t-il averti.
Le fossé CUDA et la Chine
En fin de compte, la confiance de Huang repose sur l'intégration profonde du matériel de Nvidia et de sa plateforme logicielle CUDA. La vaste base installée de centaines de millions de GPU et un écosystème de développeurs mature créent un effet volant puissant. Il a soutenu que la capacité d'inventer de nouveaux algorithmes et architectures, comme celle permettant le bond d'efficacité de 50 fois de Blackwell, n'est possible que sur une plateforme programmable, une flexibilité dont les ASIC spécialisés sont dépourvus.
Abordant les contrôles à l'exportation des États-Unis, Huang a maintenu une position pragmatique sur la Chine, qu'il décrit comme le foyer de 50 % des chercheurs en IA au monde. Il a soutenu que l'abandon du deuxième marché mondial serait une erreur stratégique pour le leadership technologique américain. « Ils ne manquent pas de puces », a-t-il déclaré, notant que les concurrents peuvent compenser les limitations matérielles par plus d'énergie et d'optimisation algorithmique. Il a préconisé la poursuite du dialogue et des échanges de recherche comme la voie la plus sûre.
L'interview de Huang s'adresse directement aux investisseurs qui s'interrogent sur la durabilité de la valorisation de Nvidia, qui se négocie à plus de 35 fois les bénéfices prévisionnels. En cadrant le débat autour du TCO plutôt que du seul prix de la puce, il affirme que les marges de 70 % de l'entreprise ne sont pas une vulnérabilité mais le reflet d'une valeur supérieure, l'isolant de la concurrence par les prix. Le risque principal pour cette thèse est qu'un concurrent majeur comme Google ou une startup bien financée puisse produire des benchmarks publics et vérifiables montrant un TCO supérieur sur une charge de travail d'IA courante, un défi que Huang a explicitement lancé.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.