Kioxia lance un SSD avec plus de 100 millions d'IOPS
Le 16 mars 2026, Kioxia, basée à Tokyo, a annoncé le développement de son "SSD à très haut IOPS", un nouveau disque SSD conçu pour éliminer les goulots d'étranglement critiques du stockage dans les infrastructures d'intelligence artificielle. L'architecture du disque permet au GPU d'un système d'accéder directement à la mémoire flash à haute vitesse, ce qui représente un changement significatif par rapport aux chemins de données conventionnels. Cette innovation vise à répondre aux demandes intensives en performances des charges de travail d'entraînement et d'inférence de l'IA, qui laissent souvent des GPU coûteux en attente de données.
L'annonce a été stratégiquement programmée pour le début de la conférence GTC 2026 de NVIDIA, un événement mondial majeur de l'IA qui se déroule du 16 au 19 mars. Kioxia prévoit de démontrer le potentiel de la technologie lors de la conférence en utilisant un émulateur capable de fournir plus de 100 millions d'opérations d'entrée/sortie par seconde (IOPS). Ce niveau de performance est conçu pour suivre le rythme des environnements IA les plus exigeants, y compris le traitement de données à grande échelle et les pipelines de génération augmentée par récupération (RAG).
Le stockage devient un champ de bataille de l'IA au GTC 2026
L'innovation matérielle de Kioxia s'inscrit dans une tendance plus large émergeant au GTC 2026, où l'architecture de stockage occupe une place centrale en tant que facteur de différenciation concurrentiel clé pour la performance de l'IA. Alors que Kioxia se concentre sur la vitesse matérielle brute, les concurrents abordent le même problème sous un angle orienté services. La société de stockage rivale Everpure, par exemple, a profité de la conférence pour annoncer son offre "Evergreen One for AI".
Le modèle d'Everpure fournit un service flexible, basé sur la consommation, pour son stockage FlashBlade//Exa haute performance, avec des accords de niveau de service (SLA) directement liés au nombre de GPU d'un client. Cette stratégie garantit que l'infrastructure de stockage fournit un débit suffisant pour maintenir les ressources GPU pleinement utilisées, transférant le risque de performance du client au fournisseur. Ces annonces parallèles de grands acteurs du stockage soulignent un changement de marché critique : à mesure que les modèles d'IA deviennent plus complexes, l'optimisation du pipeline de données est désormais aussi importante que la puissance de calcul des GPU eux-mêmes.