La rumeur Nvidia fait chuter le KOSPI de 10 % avant un rebond
Un rapport selon lequel Nvidia prévoyait d'annoncer une nouvelle puce d'inférence AI utilisant l'architecture SRAM sur puce de Groq lors de sa conférence GTC en mars a provoqué une onde de choc sur le marché boursier sud-coréen. Les investisseurs ont réagi à la nouvelle en vendant agressivement des actions de mémoire, craignant qu'un passage à la SRAM n'érode la demande de mémoire à large bande passante (HBM) et de DRAM, produits clés pour les géants Samsung Electronics et SK Hynix. Cette pression de vente a entraîné une chute de plus de 10 % de l'indice de référence KOSPI de la Corée du Sud en deux jours, marquant sa plus forte baisse sur deux jours depuis 2008.
Le ralentissement a été de courte durée. Au fur et à mesure que l'analyse du marché a clarifié les réalités techniques et économiques de la technologie SRAM, un puissant rebond s'est ensuivi. L'indice KOSPI a récupéré 11 %, tandis que les actions au centre de la panique, SK Hynix et Samsung Electronics, ont bondi de 15 % et 13 % respectivement, annulant les pertes précédentes.
Le coût et la densité de la SRAM interdisent le remplacement du HBM
La panique initiale du marché est née d'une incompréhension fondamentale des technologies de mémoire, que les analystes de KIS ont qualifiée de « mauvaise compréhension de la mémoire ». Bien que la SRAM offre des avantages en termes de vitesse d'accès, elle est physiquement moins dense et nettement plus coûteuse à produire que la DRAM. Pour la même capacité de stockage, une puce SRAM nécessite entre cinq et dix fois la surface de silicium d'une puce DRAM, ce qui la rend prohibitive pour une utilisation en tant que solution de mémoire primaire dans les modèles d'IA à grande échelle.
Historiquement, le rôle de la SRAM a été confiné aux applications où une latence extrêmement faible est critique, telles que les caches de CPU ou les tampons sur puce. Elle n'est pas conçue pour stocker les ensembles de données massifs requis pour l'entraînement et l'exécution de grands modèles d'IA, un rôle où le HBM et le DRAM excellent en raison de leur densité et de leur rentabilité supérieures.
Un marché de la mémoire diversifié annonce un TAM plus large
Plutôt qu'une menace, l'exploration de l'architecture SRAM par Nvidia signale une décision stratégique visant à optimiser les performances pour des charges de travail d'IA spécifiques et de grande valeur. Cette technologie est idéale pour les applications nécessitant une réactivité en temps réel et un mouvement de données minimal, telles que la robotique, la conduite autonome et les tâches d'inférence spécialisées dans les centres de données. Cette tendance est déjà en pratique, OpenAI déployant les puces basées sur SRAM de Cerebras pour des services d'inférence à prix premium.
L'adoption de solutions basées sur la SRAM devrait créer un paysage de mémoire plus sophistiqué et à plusieurs niveaux. Dans cette future hiérarchie, la SRAM servira le segment à ultra-faible latence, tandis que le HBM et le DRAM resteront les chevaux de bataille pour l'entraînement de modèles à grande échelle et les serveurs à usage général. Les analystes concluent que cette diversification élargira finalement le marché total adressable (TAM) pour l'ensemble de l'industrie de la mémoire, créant de nouvelles opportunités de croissance.