Micron Démarre la Production de Masse de HBM4 avec 2,8 To/s de Bande Passante
Micron Technology a débuté la production en grande série de sa mémoire HBM4 au premier trimestre 2026, marquant une avancée significative pour l'infrastructure de calcul IA. Annoncée le 16 mars lors de la conférence GTC 2026, la mémoire HBM4 36 Go à 12 couches est spécifiquement conçue pour la plateforme IA Vera Rubin de nouvelle génération de NVIDIA. La nouvelle mémoire offre une bande passante supérieure à 2,8 To/s, soit une amélioration de 2,3 fois par rapport à la génération précédente HBM3E, tout en augmentant l'efficacité énergétique de plus de 20 %. Pour répondre à la demande croissante de capacité, Micron échantillonne également une version 48 Go à 16 couches auprès de ses clients, offrant 33 % de mémoire supplémentaire par cube.
Ce développement approfondit la collaboration entre les deux géants technologiques, positionnant la mémoire de Micron comme un composant central pour les futurs systèmes d'IA. L'intégration est conçue pour garantir que les capacités de mémoire et de calcul s'adaptent de concert, un facteur critique pour la gestion de modèles d'IA de plus en plus complexes.
Notre étroite collaboration avec NVIDIA garantit que le calcul et la mémoire sont conçus pour s'adapter ensemble dès le premier jour. Au cœur de cela se trouve la HBM4 de Micron, le moteur de l'IA, offrant une bande passante, une capacité et une efficacité énergétique sans précédent.
— Sumit Sadana, Vice-président exécutif et Chief Business Officer chez Micron Technology.
Premier SSD Gen6 de l'Industrie Offrant 28 Go/s pour les Centres de Données IA
Parallèlement à l'annonce de la HBM4, Micron a également lancé le premier SSD PCIe Gen6 pour centres de données en production de grande série. Le SSD Micron 9650 double les performances de lecture de son prédécesseur Gen5, offrant jusqu'à 28 Go/s en débit de lecture séquentielle et 5,5 millions d'IOPS de lecture aléatoire. Cette performance est adaptée aux charges de travail d'entraînement et d'inférence d'IA exécutées sur des architectures telles que le BlueField-4 STX de NVIDIA. Élargissant davantage son portefeuille, Micron produit également de nouveaux modules SOCAMM2 pour la plateforme Vera Rubin, qui peuvent permettre jusqu'à 2 To de mémoire et 1,2 To/s de bande passante par CPU, renforçant ainsi sa stratégie de solution de bout en bout pour le centre de données.
Le Boom de l'IA Propulse le Titre de 34 %, les Cycles de Marché Restent un Risque
Le marché a récompensé le virage stratégique de Micron vers la mémoire IA haute performance, son action ayant grimpé de 34 % jusqu'à présent en 2026. Cette performance est alimentée par un boom de l'infrastructure IA, les hyperscalers comme Microsoft, Alphabet et Amazon devant dépenser entre 600 et 700 milliards de dollars pour les centres de données cette année. La mémoire agissant comme un goulot d'étranglement clé, le seul marché mondial de la HBM devrait passer de 35 milliards de dollars en 2025 à 100 milliards de dollars d'ici 2028. La dernière suite de produits de Micron la positionne pour capter directement cette croissance. Cependant, certains analystes avertissent que le marché de la mémoire reste cyclique. Des préoccupations subsistent quant au fait que des prix artificiellement élevés et des contraintes d'approvisionnement pourraient finalement inciter les principaux clients à réduire leurs dépenses d'investissement, créant ainsi des vents contraires potentiels pour la demande future malgré le sentiment haussier actuel.