El rumor de Nvidia borra el 10% del KOSPI antes del repunte
Un informe de que Nvidia planeaba anunciar un nuevo chip de inferencia de IA utilizando la arquitectura SRAM en chip de Groq en su conferencia GTC de marzo causó una onda de choque en el mercado de valores de Corea del Sur. Los inversores reaccionaron a la noticia vendiendo agresivamente acciones de memoria, impulsados por los temores de que un cambio a SRAM erosionaría la demanda de Memoria de Alto Ancho de Banda (HBM) y DRAM, productos clave para los gigantes Samsung Electronics y SK Hynix. La presión de venta hizo que el índice de referencia KOSPI de Corea del Sur cayera más del 10% en dos días, marcando su declive más severo en dos días desde 2008.
La desaceleración duró poco. A medida que el análisis del mercado aclaró las realidades técnicas y económicas de la tecnología SRAM, se produjo un fuerte repunte. El índice KOSPI se recuperó un 11%, mientras que las acciones en el centro del pánico, SK Hynix y Samsung Electronics, se dispararon un 15% y un 13% respectivamente, revirtiendo las pérdidas anteriores.
El costo y la densidad de la SRAM prohíben el reemplazo de HBM
El pánico inicial del mercado provino de una mala interpretación fundamental de las tecnologías de memoria, que los analistas de KIS señalaron como una "mala comprensión de la memoria". Aunque la SRAM ofrece ventajas en la velocidad de acceso, es físicamente menos densa y significativamente más cara de producir que la DRAM. Para la misma capacidad de almacenamiento, un chip SRAM requiere entre cinco y diez veces el área de silicio de un chip DRAM, lo que lo hace prohibitivamente costoso para su uso como solución de memoria principal en modelos de IA a gran escala.
Históricamente, el papel de la SRAM se ha confinado a aplicaciones donde la latencia extremadamente baja es crítica, como las cachés de CPU o los búferes en chip. No está diseñada para almacenar los enormes conjuntos de datos necesarios para entrenar y ejecutar grandes modelos de IA, un papel donde HBM y DRAM sobresalen debido a su densidad y rentabilidad superiores.
El mercado de memoria diversificado señala un TAM más grande
En lugar de una amenaza, la exploración de la arquitectura SRAM por parte de Nvidia señala un movimiento estratégico para optimizar el rendimiento para cargas de trabajo de IA específicas y de alto valor. La tecnología es ideal para aplicaciones que requieren una capacidad de respuesta en tiempo real y un movimiento de datos mínimo, como robótica, conducción autónoma y tareas de inferencia especializadas en centros de datos. Esta tendencia ya está en práctica, con OpenAI desplegando los chips basados en SRAM de Cerebras para servicios de inferencia de precio premium.
Se espera que la adopción de soluciones basadas en SRAM cree un panorama de memoria más sofisticado y de múltiples niveles. En esta jerarquía futura, la SRAM servirá al segmento de latencia ultrabaja, mientras que HBM y DRAM seguirán siendo los caballos de batalla para el entrenamiento de modelos a gran escala y los servidores de propósito general. Los analistas concluyen que esta diversificación finalmente expandirá el mercado total direccionable (TAM) para toda la industria de la memoria, creando nuevas oportunidades de crecimiento.