La mémoire à large bande passante de Micron Technology est épuisée pour les deux prochaines années, signalant une pénurie d'offre sans précédent sur le marché critique des composants d'IA.
Retour
La mémoire à large bande passante de Micron Technology est épuisée pour les deux prochaines années, signalant une pénurie d'offre sans précédent sur le marché critique des composants d'IA.

Les actions de Micron Technology Inc. ont bondi de plus de 6 % pour atteindre 790 dollars après que la société a confirmé que son offre de mémoire HBM4 de nouvelle génération est entièrement allouée jusqu'en 2026, résultat direct de la demande vorace des centres de données d'intelligence artificielle. La progression du titre prolonge un cycle haussier remarquable depuis un point bas de 64 dollars en avril de l'année dernière, consolidant sa position de bénéficiaire clé de l'essor des infrastructures d'IA.
« Le fait que la HBM4 soit épuisée deux ans à l'avance est un indicateur puissant du cycle de demande actuel tiré par l'IA », a déclaré Lee Kyoung-min, analyste chez Daishin Securities, commentant le rallye plus large du marché des puces. « Les investisseurs récompensent les entreprises ayant une exposition claire à la chaîne d'approvisionnement de l'IA. »
Cette hausse est directement liée au marché de la mémoire à large bande passante (HBM), un type de DRAM où les puces sont empilées verticalement pour créer un pipeline de données plus large et plus rapide. Cette conception est essentielle pour alimenter les processeurs d'IA gourmands en données comme ceux de Nvidia. Micron, aux côtés de ses rivaux sud-coréens SK Hynix et Samsung Electronics, sont les trois producteurs dominants de HBM. L'intégralité de l'offre de HBM4 de Micron, son produit de nouvelle génération, est déjà engagée auprès des clients jusqu'en 2026.
Cette contrainte d'approvisionnement met en évidence un goulot d'étranglement critique dans le déploiement de l'IA, limitant potentiellement le rythme de déploiement des GPU par des géants comme Nvidia, AMD et les grands fournisseurs de cloud. La HBM étant vendue très à l'avance, les investisseurs se concentrent désormais sur la capacité des fabricants de puces à accélérer des calendriers de production complexes. Le succès pourrait signifier la capture de milliards de dollars de revenus, tandis que tout retard pourrait céder du terrain aux concurrents dans un marché où chaque acteur majeur fait la course pour étendre sa capacité.
L'intense demande de puces mémoire pour l'IA a déclenché un rallye dans tout le secteur des semi-conducteurs. Le même jour que le bond de Micron, son principal rival SK Hynix a grimpé de 11,51 % à 1,88 million de wons, tandis que Samsung Electronics a progressé de 6,33 %, selon les données de la Bourse de Corée. Ces mouvements ont aidé à propulser l'indice KOSPI de la Corée du Sud à un niveau record, soulignant l'impact mondial du super-cycle de la mémoire IA.
Cette course à trois entre Micron, SK Hynix et Samsung définira le rythme et le coût du développement de l'IA. Alors que Micron a sécurisé sa ligne de production pour les deux prochaines années, SK Hynix a également été agressif, se positionnant comme un fournisseur clé pour Nvidia. La concurrence ne porte pas seulement sur le volume mais aussi sur le leadership technologique, chaque nouvelle génération de HBM offrant des sauts significatifs en termes de bande passante mémoire et d'efficacité énergétique, des paramètres critiques pour les opérateurs de centres de données.
La rupture de stock d'un produit qui n'a pas encore atteint la production de masse est un événement hautement inhabituel qui souligne le besoin désespéré des fabricants de matériel d'IA de sécuriser leurs chaînes d'approvisionnement. La HBM est nettement plus complexe à fabriquer que la DRAM conventionnelle, impliquant un processus appelé perforation par trous d'interconnexion à travers le silicium (TSV) et des techniques de conditionnement avancées souvent gérées par des fonderies comme TSMC. Cette complexité limite la vitesse à laquelle de nouvelles capacités peuvent être mises en service.
Pour des clients comme Nvidia, un approvisionnement garanti en HBM est non négociable. Les performances de ses GPU de nouvelle génération sont directement liées à la vitesse et à la disponibilité de la mémoire avec laquelle ils sont associés. La pénurie de HBM est devenue le nouveau facteur limitant pour la croissance de l'IA, déplaçant le goulot d'étranglement des GPU eux-mêmes vers la mémoire qui les alimente. La valorisation de Micron est désormais fortement indexée sur sa capacité à exécuter sans faille cette expansion de capacité HBM.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.