Un analyste de premier plan du secteur des semi-conducteurs prévoit qu'un déséquilibre entre l'offre et la demande de puces mémoire pourrait faire grimper les prix de 200 % à 300 % dans un avenir proche.
Retour
Un analyste de premier plan du secteur des semi-conducteurs prévoit qu'un déséquilibre entre l'offre et la demande de puces mémoire pourrait faire grimper les prix de 200 % à 300 % dans un avenir proche.

Selon un analyste spécialisé de premier plan, les prix de la mémoire DRAM haute performance utilisée dans les serveurs d'intelligence artificielle vont doubler, voire tripler, car la demande insatiable des développeurs d'IA dépasse la capacité de production de l'industrie des semi-conducteurs. Ces prévisions pointent vers un goulot d'étranglement significatif dans la chaîne d'approvisionnement de l'IA qui pourrait durer pendant les prochains trimestres.
« Les gens disent que l'histoire de la mémoire est exagérée », a déclaré Dylan Patel, analyste en chef chez SemiAnalysis, dans le podcast « Invest Like the Best ». Il a exposé une thèse brutale selon laquelle les prix de la DRAM « vont doubler ou tripler à partir d'ici » en raison du déséquilibre entre l'offre et la demande.
Cette prédiction survient alors que les fabricants de mémoire constatent déjà une forte augmentation de leur rentabilité. SK Hynix a récemment fait état d'un bond significatif de ses bénéfices, citant l'envolée des prix des puces mémoire pour l'IA. Son concurrent Micron Technology a vu son action bondir grâce au boom de la mémoire IA, tandis que des fabricants d'équipements comme Lam Research relèvent leurs propres perspectives en raison de la demande record de leurs clients.
Une augmentation spectaculaire des prix de la DRAM, en particulier de la mémoire à large bande passante (HBM), stimulerait directement les revenus et les marges bénéficiaires des fabricants tels que SK Hynix, Samsung et Micron. À l'inverse, cela représente un défi financier majeur pour les géants technologiques — notamment Google, Microsoft et Amazon — qui dépensent des milliards de dollars pour construire leurs centres de données d'IA, ce qui pourrait avoir un impact sur leur rentabilité et sur la tarification des services d'IA.
La pénurie actuelle de l'offre est ancrée dans la complexité de la fabrication de la mémoire spécialisée requise pour les applications d'IA. Contrairement à la DRAM standard, la HBM utilisée pour entraîner et exécuter de grands modèles de langage est un composant hautement complexe, empilant plusieurs couches de puces mémoire pour atteindre la bande passante nécessaire. Ce processus, qui repose sur la technologie de conditionnement avancée de firmes comme TSMC, a un rendement plus faible et un cycle de production beaucoup plus long. Par conséquent, les fabricants de mémoire ne peuvent pas augmenter l'offre aussi rapidement que la demande croît, créant une pénurie structurelle. La capacité de la chaîne d'approvisionnement pour la HBM est effectivement épuisée pour les prochains trimestres, ce qui donne aux vendeurs un pouvoir de fixation des prix considérable.
Ces prévisions renforcent les perspectives haussières pour les actions de semi-conducteurs liées au cycle de la mémoire IA. Les actions de Micron et de SK Hynix ont déjà enregistré de forts gains cette année, et un doublement des prix de la DRAM entraînerait probablement une hausse des estimations de bénéfices et des valorisations boursières. Pour les investisseurs, l'enseignement clé est que la construction de l'infrastructure d'IA n'est pas seulement une histoire concernant Nvidia. Toute la chaîne d'approvisionnement des semi-conducteurs, des fournisseurs d'équipements comme Lam Research aux spécialistes de la mémoire, bénéficie de la vague de dépenses en capital. Cependant, cela soulève également des questions sur la durabilité des dépenses liées à l'IA si le coût des composants clés continue de grimper, un facteur qui pourrait peser sur les marges des fournisseurs de services cloud.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.