(P1) La course à la construction d'une intelligence artificielle plus puissante crée un étranglement financier pré-IPO pour des leaders comme OpenAI et Anthropic, avec des coûts informatiques annuels désormais estimés à plus de 1 milliard de dollars, jetant une ombre sur leur chemin vers les marchés publics.
(P2) "Le plus gros poste de dépense pour ces entreprises est le calcul informatique", a déclaré un capital-risqueur ayant des positions dans le secteur de l'IA. "C'est une course aux armements en matière de dépenses d'investissement, et les investisseurs publics exigeront une voie claire vers la rentabilité qui pourrait tout simplement ne pas exister avant trois à cinq ans."
(P3) Des rapports indiquent que l'entraînement d'un seul modèle de langage de nouvelle génération peut coûter plus de 200 millions de dollars, soit une augmentation de 4 fois par rapport à il y a seulement deux ans. Les derniers documents d'Anthropic montrent un taux de consommation de liquidités proche de 80 millions de dollars par mois, dont plus de 60 % sont alloués aux services de cloud computing d'Amazon Web Services et de Google Cloud. Ces dépenses servent principalement à accéder à des dizaines de milliers de GPU haut de gamme, tels que le H100 de Nvidia, essentiels pour l'entraînement et l'inférence des modèles.
(P4) L'immense consommation de capital menace de tempérer l'enthousiasme des investisseurs pour ce qui devrait être deux des plus importantes introductions en bourse technologiques depuis 2021. Alors que les revenus d'OpenAI augmentent, ses coûts opérationnels croissent plus rapidement, une dynamique qui pourrait conduire à un tour de financement à la baisse (down-round) ou à une valorisation inférieure aux attentes sur le marché boursier. Pour les investisseurs, la question clé est de savoir si les revenus des abonnements et des API peuvent dépasser le coût colossal, et toujours croissant, de la puissance de calcul sous-jacente.
Le goulot d'étranglement des GPU
Au cœur de la pression financière se trouve la dépendance mondiale à l'égard d'une poignée de concepteurs de puces, principalement Nvidia. Les GPU H100 et le futur B200 de la société sont devenus la norme de facto pour l'entraînement de l'IA, donnant à Nvidia un pouvoir de tarification significatif. Une analyse récente d'un cabinet de recherche en semi-conducteurs estime que le coût des matériaux pour un seul GPU H100 est d'environ 3 000 dollars, alors qu'il se vend jusqu'à 30 000 dollars. Cette marge de 10x est une taxe directe sur la rentabilité des fournisseurs de modèles d'IA. OpenAI et Anthropic explorent tous deux des conceptions de puces personnalisées pour réduire cette dépendance, mais de tels projets sont des entreprises à long terme aux résultats incertains, nécessitant des milliards en R&D et au moins trois ans pour atteindre l'échelle de production.
Chemin vers la rentabilité
Le défi central pour ces leaders de l'IA est un modèle d'affaires où les coûts évoluent directement avec l'utilisation. Chaque requête ou tâche effectuée par leurs modèles entraîne un coût d'inférence, une charge faible mais significative pour la puissance de calcul utilisée. À mesure que ces modèles deviennent plus performants et s'intègrent dans davantage d'applications, le coût global pourrait exploser, rendant potentiellement la rentabilité perpétuellement hors de portée. Microsoft, un investisseur majeur dans OpenAI, aide à absorber certains de ces coûts via sa plateforme cloud Azure, mais Anthropic et d'autres manquent d'un partenaire aux reins aussi solides, ce qui rend leur assise financière plus précaire avant une cotation publique. Le marché observe maintenant si ces entreprises peuvent optimiser leurs modèles pour plus d'efficacité, obtenir des conditions plus favorables de la part des fournisseurs de cloud, ou prouver un modèle de revenus capable de devancer enfin leurs dépenses opérationnelles massives.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.