Un aumento en la demanda de inteligencia artificial está destinado a reasignar radicalmente el gasto en los centros de datos hacia la memoria, y se proyecta que su participación en el gasto de capital se acerque a un tercio del total para 2026, frente a solo el 8% en 2023. Este cambio drástico, pronosticado por la firma de investigación SemiAnalysis, apunta a un período de precios vertiginosos y escasez de suministro para componentes críticos como la memoria de alto ancho de banda (HBM) y la DRAM.
El informe pronostica que los precios de la DRAM se duplicarán con creces para 2026, con aumentos adicionales de dos dígitos en 2027. "El aumento de los costos no tiene precedentes", dijo el director de operaciones de Dell, Jeff Clarke, en una llamada de ganancias, describiendo la velocidad de los aumentos de los costos de los componentes que afectan a la industria de los servidores.
Según SemiAnalysis, la participación de la memoria en el capex de los centros de datos a hiperescala subirá a aproximadamente el 30% para 2026 y aumentará aún más en 2027. La firma espera que la HBM, la memoria apilada verticalmente esencial para los aceleradores de IA, siga teniendo un suministro limitado hasta 2027. Esto ya está afectando los costos del hardware, y se espera que los precios de los servidores B200 de Nvidia suban hasta un 20% para finales de año debido al aumento de los costos de la memoria.
El inminente cuello de botella de la memoria crea claros ganadores y perdedores. Los productores de memoria, incluidos Samsung, SK Hynix y Micron, están preparados para un impulso significativo en los ingresos y los márgenes. Por el contrario, los fabricantes de servidores de IA y los principales proveedores de la nube enfrentarán una presión sostenida sobre sus márgenes de beneficio. La situación también puede ampliar la brecha competitiva entre Nvidia y rivales como AMD, ya que la escala de Nvidia le permite asegurar precios "Muy, Muy Preferenciales" de los proveedores, un descuento que no está disponible para los compradores de menor volumen.
La ventaja de Nvidia, el desafío de AMD
SemiAnalysis señala que el precio preferencial de DRAM de Nvidia comprime efectivamente sus costos de servidor y oculta la gravedad de la escasez de suministro para el resto del mercado. Este poder adquisitivo le otorga una ventaja significativa en la estructura de costos sobre sus competidores.
AMD, con una presencia menor en aceleradores de IA, está más expuesta a la escalada de los costos de memoria y no puede exigir descuentos similares. Esta dinámica podría obstaculizar su capacidad para competir en precio y escala en un mercado donde la memoria se está convirtiendo en el principal impulsor de costos.
El suministro no puede seguir el ritmo
En respuesta a la demanda, los principales fabricantes de memoria están cambiando la capacidad de producción hacia la HBM y otros productos DRAM empresariales de alto margen. Sin embargo, este giro restringe el suministro de memoria convencional DDR5 y LPDDR5, lo que hace que los precios suban en general.
No se espera que las nuevas instalaciones de producción importantes, como la planta de HBM de 9,600 millones de dólares de Micron en Hiroshima y las expansiones de SK Hynix en Icheon y Cheongju, contribuyan con una producción sustancial hasta 2027 o 2028 como muy pronto. Según SemiAnalysis, si bien los proveedores de la nube han factorizado parcialmente estos aumentos de precios en sus pautas de gasto para 2026, las estimaciones de Wall Street aún no han tenido plenamente en cuenta el ajuste de precios esperado en 2027, lo que sugiere que el impacto financiero futuro aún no se ha reflejado en los precios.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.