Micron Inicia la Producción en Masa de HBM4 con un Ancho de Banda de 2.8 TB/s
Micron Technology inició la producción de alto volumen de su memoria HBM4 en el primer trimestre de 2026, un avance significativo para la infraestructura de computación de IA. Anunciada el 16 de marzo en la conferencia GTC 2026, la memoria HBM4 de 36 GB y 12 pilas está específicamente diseñada para la plataforma de IA Vera Rubin de próxima generación de NVIDIA. La nueva memoria ofrece un ancho de banda superior a 2.8 TB/s, una mejora de 2.3 veces respecto a la generación anterior HBM3E, al tiempo que aumenta la eficiencia energética en más del 20%. Para satisfacer la creciente demanda de capacidad, Micron también está muestreando una versión de 48 GB y 16 pilas a los clientes, que proporciona un 33% más de memoria por cubo.
Este desarrollo profundiza la colaboración entre los dos gigantes tecnológicos, posicionando la memoria de Micron como un componente central para futuros sistemas de IA. La integración está diseñada para garantizar que las capacidades de memoria y computación se escalen a la par, un factor crítico para manejar modelos de IA cada vez más complejos.
Nuestra estrecha colaboración con NVIDIA asegura que la computación y la memoria estén diseñadas para escalar juntas desde el primer día. En el corazón de esto está la HBM4 de Micron, el motor de la IA, que ofrece un ancho de banda, capacidad y eficiencia energética sin precedentes.
— Sumit Sadana, Vicepresidente Ejecutivo y Director Comercial de Micron Technology.
El Primer SSD Gen6 de la Industria Ofrece 28 GB/s para Centros de Datos de IA
Junto con el anuncio de HBM4, Micron también lanzó el primer SSD PCIe Gen6 para centros de datos en producción de alto volumen. El SSD Micron 9650 duplica el rendimiento de lectura de su predecesor Gen5, ofreciendo hasta 28 GB/s en rendimiento de lectura secuencial y 5.5 millones de IOPS de lectura aleatoria. Este rendimiento está diseñado para cargas de trabajo de entrenamiento e inferencia de IA que se ejecutan en arquitecturas como el BlueField-4 STX de NVIDIA. Ampliando aún más su cartera, Micron también está produciendo nuevos módulos SOCAMM2 para la plataforma Vera Rubin, que pueden habilitar hasta 2 TB de memoria y 1.2 TB/s de ancho de banda por CPU, reforzando su estrategia de solución de extremo a extremo para el centro de datos.
El Auge de la IA Impulsa un Aumento del 34% en las Acciones, los Ciclos del Mercado Siguen Siendo un Riesgo
El mercado ha recompensado la transición estratégica de Micron hacia la memoria de IA de alto rendimiento, con sus acciones subiendo un 34% en lo que va de 2026. Este rendimiento está impulsado por un auge de la infraestructura de IA, con hiperescaladores como Microsoft, Alphabet y Amazon proyectando gastar entre 600 mil millones y 700 mil millones de dólares en centros de datos este año. Dado que la memoria actúa como un cuello de botella clave, se pronostica que solo el mercado global de HBM se expandirá de 35 mil millones de dólares en 2025 a 100 mil millones de dólares para 2028. La última suite de productos de Micron la posiciona para capturar directamente este crecimiento. Sin embargo, algunos analistas advierten que el mercado de la memoria sigue siendo cíclico. Persisten las preocupaciones de que los precios artificialmente altos y las restricciones de suministro podrían eventualmente impulsar a los principales clientes a reducir sus gastos de capital, creando posibles obstáculos para la demanda futura a pesar del sentimiento alcista actual.