Un changement fondamental dans l'architecture de l'IA pourrait se profiler à l'horizon, la mémoire, et non le GPU, devenant le nouveau centre de l'informatique.
Une prédiction du professeur Joungho Kim du KAIST, largement considéré comme le « père de la HBM », suggère que le modèle d'IA actuel centré sur le GPU sera bouleversé par une architecture axée sur la mémoire d'ici les quatre prochaines années. Il soutient que le passage de l'IA générative à une IA agentielle plus complexe nécessitera une capacité de mémoire et une bande passante multipliées par 1 000, une demande que la technologie actuelle ne peut satisfaire.
« L'ère de l'IA agentielle nécessite une nouvelle approche de la mémoire », a déclaré Kim, selon des rapports de médias sud-coréens. Ses prévisions pointent vers un avenir où des ensembles de données massifs sont traités directement au sein des systèmes de mémoire, réduisant ainsi le goulot d'étranglement créé par le transfert de données vers et depuis un GPU central.
Le cœur de cette prédiction est une solution de nouvelle génération appelée High Bandwidth Flash (HBF), qui consiste à empiler de la mémoire flash NAND au lieu de la DRAM utilisée dans la High-Bandwidth Memory (HBM) d'aujourd'hui. Cela créerait une « bibliothèque géante » de mémoire à long terme avec une capacité bien supérieure. Des échantillons d'ingénierie de HBF sont attendus vers 2027, avec une adoption potentielle par des acteurs majeurs tels que Google, Nvidia ou AMD dès 2028.
Ce changement technologique prépare le terrain pour une nouvelle bataille entre les géants coréens de la mémoire, SK Hynix et Samsung Electronics. L'entreprise qui réussira à standardiser et à produire en masse la technologie HBF pourrait s'assurer une position dominante dans la prochaine phase du marché du matériel d'IA, modifiant potentiellement le paysage concurrentiel actuellement dominé par des fabricants de GPU comme Nvidia.
Le problème de la mémoire multipliée par 1 000
Le moteur de cette perturbation architecturale prévue est l'évolution des applications d'IA elles-mêmes. À mesure que l'IA dépasse la simple génération pour s'orienter vers des systèmes « agentiels » autonomes, la quantité de données, ou « contexte », qui doit être traitée simultanément explose. Le professeur Kim appelle cela l'essor de « l'ingénierie de contexte », où les agents d'IA doivent gérer de vastes bibliothèques de documents, de vidéos et d'autres données multimodales pour fonctionner efficacement.
Pour atteindre la vitesse et la précision nécessaires à ces tâches, Kim estime que la bande passante et la capacité de la mémoire nécessitent une amélioration stupéfiante de 1 000 fois. Certaines projections citées par Kim suggèrent qu'une augmentation de 100 à 1 000 fois de l'échelle d'entrée pourrait entraîner une demande de mémoire jusqu'à 1 million de fois supérieure aux besoins actuels. La technologie HBM existante, qui empile verticalement la DRAM pour un accès à haute vitesse et constitue la norme actuelle dans les accélérateurs d'IA, atteindra un plafond de capacité bien avant d'atteindre ces niveaux. La HBM agit comme une petite pile de post-it : rapide d'accès mais limitée en volume. En revanche, la HBF est envisagée comme un mur entier de bibliothèque, offrant un ordre de grandeur de stockage complètement différent.
SK Hynix et Samsung tracent de nouvelles lignes de front
La course pour développer cette mémoire de nouvelle génération est déjà lancée, reprenant la rivalité intense observée lors du développement de la HBM. SK Hynix, leader sur le marché de la HBM, a agi de manière agressive pour établir un avantage précoce. En février, l'entreprise a formé une alliance de standardisation HBF avec SanDisk de Western Digital afin de construire un écosystème autour de cette technologie. SK Hynix a également publié des recherches sur une architecture « H3 » qui place la HBM et la nouvelle HBF aux côtés du GPU, intégrant ainsi l'unité de traitement au sein d'un système de mémoire plus vaste.
Samsung Electronics poursuit une stratégie à double voie. Tout en continuant à faire progresser sa gamme HBM avec des produits tels que la HBM4E, l'entreprise développe également sa propre architecture basée sur la NAND qui s'aligne sur le concept HBF, comme le rapporte Aju News. La compétition ne porte pas seulement sur la fabrication d'une nouvelle puce, mais sur la définition des normes pour l'ensemble de l'industrie. Le gagnant sera celui qui saura créer en premier un cycle complet allant de l'établissement des normes et de la conception à la fabrication à grand volume et à moindre coût, s'assurant ainsi un rôle critique dans l'avenir de l'IA.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.