Samsung Electronics Co. fait état d'une augmentation de performance de plus de dix fois pour sa nouvelle architecture de mémoire, une étape cruciale pour une technologie qui pourrait résoudre un problème d'efficacité majeur dans les centres de données d'IA, au moment même où Google et Nvidia s'engagent à la déployer.
« L'infrastructure d'IA a besoin de beaucoup de mémoire, et les prix de la mémoire continuent de grimper », a déclaré Jin Kim, PDG de la startup sud-coréenne CXL Xcena, lors d'une récente interview. « Cela oblige nos clients cibles à améliorer l'utilisation de la mémoire, et il n'existe actuellement aucune autre solution capable de remplacer le CXL pour améliorer l'efficacité de la mémoire. »
Selon un document présenté lors d'une récente conférence de l'IEEE, le système « Pangea v2 » de Samsung, basé sur la norme CXL 2.0, a démontré une augmentation de 10,2 fois des performances de transfert de données par rapport aux méthodes traditionnelles d'accès direct à la mémoire à distance (RDMA). Le système, qui regroupe jusqu'à 5,5 téraoctets de DRAM, a également réduit les principaux goulots d'étranglement de près de 96 %. Cette avancée intervient alors que Google confirme avoir commencé à déployer le CXL dans ses centres de données, et que Nvidia prévoit de prendre en charge la norme CXL 3.1 dans son processeur Vera plus tard cette année.
Pour les investisseurs, les initiatives parallèles d'un producteur de mémoire de premier plan et des deux plus grands exploitants de centres de données signalent un point d'inflexion potentiel pour le CXL (Compute Express Link). Cette technologie permet à plusieurs processeurs et GPU de partager un pool de mémoire commun, remédiant ainsi à une inefficacité critique où les modules de mémoire dédiés ne sont souvent utilisés qu'à hauteur de 20 ou 30 %. Un déploiement réussi du CXL pourrait réduire considérablement le coût total de possession du matériel d'IA, impactant la valorisation des fabricants de mémoire comme Samsung et SK Hynix, et modifiant potentiellement le paysage concurrentiel dominé par Nvidia.
Pangea v2 établit une nouvelle référence de performance
Le système Pangea v2 de Samsung intègre 22 de ses modules DRAM CXL dans un seul pool de mémoire partagée, développé en collaboration avec Marvell Technology Inc. et la société d'infrastructure d'IA Liquid AI. Bien que le gain de performance de 10,2x soit une réussite technique majeure, le système est basé sur la norme CXL 2.0, qui est déjà en cours de remplacement.
Le Consortium CXL a depuis finalisé la version 3.2 de la spécification. Samsung a déclaré son intention de lancer un système « Pangea v3 » basé sur la nouvelle norme d'ici 2026. Le concurrent SK Hynix Inc. progresse également rapidement, ayant achevé la certification client pour sa mémoire CMM-DDR5 de 96 Go compatible avec le CXL 2.0 en 2025, et prévoit un produit de deuxième génération pour prendre en charge le CXL 3.0. Micron Technology Inc. est entré dans la course en 2024, consolidant le champ concurrentiel parmi les trois principaux producteurs de mémoire.
Le soutien de l'écosystème reste l'ultime obstacle
L'obstacle principal à l'adoption généralisée du CXL n'est pas technologique, mais organisationnel. Pour que le système fonctionne, chaque composant du centre de données — du processeur et du GPU aux modules de mémoire et à l'équipement réseau — doit prendre en charge la même norme.
« Pour faire fonctionner le CXL, il faut que le processeur, le GPU, la mémoire et le logiciel soient tous compatibles », a déclaré Mark Li, analyste en semi-conducteurs chez Bernstein Research. « Très peu d'entreprises peuvent contrôler tous ces produits et impulser un changement synergique. Nvidia en est une, et Google en est une autre. »
L'histoire montre la difficulté de cette transition. Advanced Micro Devices Inc. en 2022 et Intel Corp. en 2023 ont tous deux lancé des puces de serveur prenant en charge le CXL, mais l'adoption commerciale a été limitée. Même avec le déploiement actuel de Google, les ingénieurs de l'industrie suggèrent que la technologie ne répond pas encore à toutes les exigences des grands fournisseurs de cloud. Le lancement du processeur Vera de Nvidia plus tard cette année est désormais considéré comme le test en conditions réelles le plus significatif pour savoir si le CXL peut enfin passer du stade de l'expérimentation de niche à celui de norme industrielle fiable.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.