Kioxia lanza un SSD con más de 100 millones de IOPS
El 16 de marzo de 2026, Kioxia, con sede en Tokio, anunció el desarrollo de su "SSD de E/S por segundo (IOPS) Súper Alta", una nueva unidad de estado sólido diseñada para eliminar los cuellos de botella críticos de almacenamiento en las infraestructuras de inteligencia artificial. La arquitectura de la unidad permite que la GPU de un sistema acceda directamente a la memoria flash de alta velocidad, lo que representa una desviación significativa de las rutas de datos convencionales. Esta innovación apunta a las demandas intensivas en rendimiento de las cargas de trabajo de entrenamiento e inferencia de IA, que a menudo dejan a las costosas GPU esperando datos.
El anuncio fue programado estratégicamente para el inicio de la conferencia GTC 2026 de NVIDIA, un evento global de IA de primer nivel que se celebra del 16 al 19 de marzo. Kioxia planea demostrar el potencial de la tecnología en la conferencia utilizando un emulador capaz de ofrecer más de 100 millones de operaciones de entrada/salida por segundo (IOPS). Este nivel de rendimiento está diseñado para seguir el ritmo de los entornos de IA más exigentes, incluido el procesamiento de datos a gran escala y las canalizaciones de generación aumentada por recuperación (RAG).
El almacenamiento se convierte en el campo de batalla de la IA en GTC 2026
La innovación centrada en el hardware de Kioxia es parte de una tendencia más amplia que emerge en GTC 2026, donde la arquitectura de almacenamiento está ocupando un lugar central como diferenciador competitivo clave para el rendimiento de la IA. Mientras Kioxia se centra en la velocidad bruta del hardware, los competidores están abordando el mismo problema desde una perspectiva orientada a los servicios. La empresa de almacenamiento rival Everpure, por ejemplo, utilizó la conferencia para anunciar su oferta "Evergreen One for AI".
El modelo de Everpure proporciona un servicio flexible, basado en el consumo, para su almacenamiento FlashBlade//Exa de alto rendimiento, con acuerdos de nivel de servicio (SLA) directamente vinculados al número de GPU de un cliente. Esta estrategia garantiza que la infraestructura de almacenamiento proporcione un rendimiento suficiente para mantener los recursos de la GPU completamente utilizados, trasladando el riesgo de rendimiento del cliente al proveedor. Estos anuncios paralelos de los principales actores del almacenamiento subrayan un cambio crítico en el mercado: a medida que los modelos de IA se vuelven más complejos, optimizar la canalización de datos es ahora tan importante como la potencia computacional de las propias GPU.