La prochaine vague de profits de l'IA se déplace des concepteurs de puces vers les constructeurs de centres de données, créant un nouvel ensemble de leaders du marché.
Retour
La prochaine vague de profits de l'IA se déplace des concepteurs de puces vers les constructeurs de centres de données, créant un nouvel ensemble de leaders du marché.

(Bloomberg) -- Le récit d'investissement qui alimente l'essor de l'intelligence artificielle s'étend au-delà des principaux fabricants de puces, avec une attention croissante portée à l'infrastructure critique des centres de données nécessaire pour soutenir les modèles d'IA à grande échelle. Une analyse de The Motley Fool identifie un passage vers le réseautage et le matériel d'inférence spécialisé comme la prochaine phase du supercycle de l'IA.
« Alors que la première vague d'investissement dans l'IA s'est concentrée sur le matériel d'entraînement, la prochaine vague sera tirée par le réseautage qui lie le tout ensemble et l'efficacité de l'inférence », indique le rapport du 7 avril.
L'analyse met en avant les spécialistes du réseautage de centres de données Broadcom (AVGO) et Arista Networks (ANET) comme les principaux bénéficiaires de cette tendance. Elle souligne également le développement par Alphabet (GOOGL) d'unités de traitement de tenseurs (TPU) personnalisées comme un avantage clé sur le marché de l'inférence d'IA, de plus en plus important, où l'efficacité et les faibles coûts opérationnels sont primordiaux.
Ce changement suggère que si des entreprises comme Nvidia ont capturé la poussée initiale, les investisseurs recherchent maintenant de la croissance dans la couche d'infrastructure essentielle, mais moins médiatisée. Le potentiel d'une demande soutenue dans la construction de centres de données pourrait réorganiser la liste des actions d'IA les plus performantes à mesure que le marché mûrit.
## Le réseautage des centres de données sur le devant de la scène
La croissance explosive des modèles d'IA a créé une demande sans précédent pour la capacité des centres de données, et plus spécifiquement pour le réseautage à haut débit afin de connecter des milliers de GPU. Broadcom et Arista Networks sont positionnés directement sur la trajectoire de cette demande. Broadcom est un fournisseur clé de commutateurs Ethernet à large bande passante et de silicium personnalisé essentiels pour les structures de réseautage d'IA. Arista Networks a bâti son activité sur des commutateurs haute vitesse à faible latence qui sont critiques pour la performance des grands clusters d'IA. Alors que les entreprises et les fournisseurs de cloud se précipitent pour renforcer leurs capacités d'IA, les dépenses consacrées à cette épine dorsale de réseautage devraient croître de manière substantielle, offrant un vent arrière durable pour les deux entreprises.
## L'avantage d'Alphabet dans l'inférence
Alors qu'une grande partie du marché s'est concentrée sur le matériel pour l'entraînement des modèles d'IA, le coût à long terme de l'IA sera dominé par l'inférence — le processus d'exécution de modèles entraînés pour générer des réponses. L'investissement de longue date d'Alphabet dans son propre matériel TPU personnalisé lui donne un avantage significatif dans ce domaine. Conçues spécifiquement pour les charges de travail de Google, les TPU peuvent offrir une performance par watt supérieure pour les tâches d'inférence par rapport aux GPU plus polyvalents. Cette efficacité pourrait se traduire par un avantage financier de plusieurs milliards de dollars à mesure que l'utilisation de ses services d'IA se développe, renforçant le fossé concurrentiel de sa division cloud et de ses propres produits propulsés par l'IA.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.