Un cambio fundamental en la arquitectura de la IA podría estar en el horizonte, con la memoria, y no la GPU, convirtiéndose en el nuevo centro de la computación.
Una predicción del profesor del KAIST Joungho Kim, ampliamente considerado como el "padre de la HBM", sugiere que el modelo actual de IA centrado en la GPU será revocado por una arquitectura centrada en la memoria dentro de los próximos cuatro años. Argumenta que el paso de la IA generativa a una IA agéntica más compleja requerirá que la capacidad de memoria y el ancho de banda aumenten hasta 1,000 veces, una demanda que la tecnología actual no puede satisfacer.
"La era de la IA agéntica requiere un nuevo enfoque de la memoria", afirmó Kim, según informes de los medios de comunicación surcoreanos. Su pronóstico apunta a un futuro donde los conjuntos de datos masivos se procesen directamente dentro de los sistemas de memoria, reduciendo el cuello de botella creado por el traslado de datos hacia y desde una GPU central.
El núcleo de esta predicción es una solución de próxima generación llamada High Bandwidth Flash (HBF), que implica apilar memoria flash NAND en lugar de la DRAM utilizada en la memoria de alto ancho de banda (HBM) actual. Esto crearía una "estantería gigante" de memoria a largo plazo con una capacidad enormemente mayor. Se esperan muestras de ingeniería de HBF alrededor de 2027, con una posible adopción por parte de grandes actores como Google, Nvidia o AMD tan pronto como en 2028.
Este cambio tecnológico prepara el escenario para una nueva batalla entre los gigantes de la memoria de Corea del Sur, SK Hynix y Samsung Electronics. La empresa que pueda estandarizar y producir en masa con éxito la tecnología HBF podría asegurar una posición dominante en la siguiente fase del mercado de hardware de IA, alterando potencialmente el panorama competitivo liderado actualmente por fabricantes de GPU como Nvidia.
El problema de la memoria 1,000x
La fuerza impulsora detrás de esta interrupción arquitectónica prevista es la evolución de las propias aplicaciones de IA. A medida que la IA se mueve más allá de la simple generación hacia sistemas "agénticos" autónomos, la cantidad de datos, o "contexto", que debe procesarse simultáneamente se dispara. El profesor Kim se refiere a esto como el auge de la "ingeniería de contexto", donde los agentes de IA deben manejar vastas bibliotecas de documentos, videos y otros datos multimodales para funcionar de manera efectiva.
Para lograr la velocidad y precisión necesarias para estas tareas, Kim estima que el ancho de banda y la capacidad de la memoria necesitan una asombrosa mejora de 1,000 veces. Algunas proyecciones citadas por Kim sugieren que un aumento de 100 a 1,000 veces en la escala de entrada podría generar una demanda de memoria hasta 1 millón de veces mayor que los requisitos actuales. La tecnología HBM existente, que apila verticalmente la DRAM para un acceso de alta velocidad y es el estándar actual en los aceleradores de IA, alcanzará un techo de capacidad mucho antes de llegar a esos niveles. La HBM actúa como una pequeña pila de notas adhesivas: de acceso rápido pero de volumen limitado. En contraste, la HBF se visualiza como una pared entera de biblioteca, ofreciendo un orden de magnitud de almacenamiento completamente diferente.
SK Hynix y Samsung trazan nuevas líneas de batalla
La carrera para desarrollar esta memoria de próxima generación ya está en marcha, repitiendo la intensa rivalidad vista durante el desarrollo de la HBM. SK Hynix, líder en el mercado de HBM, se ha movido agresivamente para establecer una ventaja temprana. En febrero, la empresa formó una alianza de estandarización de HBF con SanDisk de Western Digital para construir un ecosistema alrededor de la tecnología. SK Hynix también ha publicado investigaciones sobre una arquitectura "H3" que coloca la HBM y la nueva HBF junto a la GPU, integrando efectivamente la unidad de procesamiento dentro de un sistema de memoria más grande.
Samsung Electronics está siguiendo una estrategia de doble vía. Mientras continúa avanzando en su línea HBM con productos como HBM4E, la compañía también está desarrollando su propia arquitectura basada en NAND que se alinea con el concepto HBF, según informa Aju News. La competencia no se trata solo de fabricar un nuevo chip, sino de definir los estándares para toda la industria. El ganador será quien pueda crear primero un ciclo completo desde el establecimiento de estándares y el diseño hasta la fabricación de gran volumen y rentable, asegurando un papel crítico en el futuro de la IA.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.