Nvidia Intègre l'IP de Groq à 20 Milliards de Dollars pour l'Inférence IA à Faible Latence
Lors de sa conférence GTC 2026, Nvidia a lancé le rack d'inférence Groq LPX, le premier produit majeur issu de son acquisition de 20 milliards de dollars de propriété intellectuelle et de l'équipe de Groq. Le système intègre l'architecture d'unité de traitement à faible latence (LPU) de Groq avec les GPU de Nvidia pour optimiser l'inférence IA. En utilisant une technique appelée « Attention FFN Disaggregation », le système délègue les tâches en fonction des forces du matériel : les GPU gèrent les calculs d'attention dynamiques, tandis que les nouvelles puces LP30 LPU gèrent les calculs statiques du réseau de neurones à propagation avant (FFN), réduisant considérablement les délais de réponse dans les applications IA interactives.
Crucialement pour les investisseurs, la puce LP30 est fabriquée selon le processus SF4 de Samsung et n'utilise pas de mémoire à large bande passante (HBM). Cela signifie que le nouveau système LPX représente une capacité de production et des revenus supplémentaires pour Nvidia, car il ne consomme pas les slots de fabrication TSMC N3 ou l'approvisionnement en HBM, qui sont rares pour l'entreprise, un avantage concurrentiel clé qui ne peut pas être facilement répliqué.
Le Rack Vera ETL256 Empile 256 CPU pour Briser les Goulots d'Étranglement de l'IA
Pour s'attaquer au goulot d'étranglement croissant des CPU dans les opérations IA à grande échelle, Nvidia a introduit le Vera ETL256. Ce système haute densité, refroidi par liquide, intègre 256 de ses nouveaux CPU Vera dans un seul rack. La conception cible directement les exigences massives de traitement parallèle pour des tâches comme la préparation des données et l'apprentissage par renforcement, où la disponibilité des CPU peut limiter l'utilisation globale des GPU. En intégrant la densité de calcul à un point où toutes les connexions intra-rack peuvent être réalisées avec un câblage en cuivre, Nvidia élimine le besoin de transcepteurs optiques plus coûteux au sein du rack, compensant ainsi le coût du refroidissement liquide.
Parallèlement au rack CPU, Nvidia a dévoilé l'architecture de référence de stockage STX. Celle-ci standardise la configuration des systèmes de stockage pour l'IA, spécifiant la combinaison requise de disques, de CPU Vera, de DPU BlueField et de composants réseau. Soutenue par les principaux fournisseurs de stockage, dont Dell, HPE et IBM, l'architecture STX solidifie l'expansion de Nvidia du calcul et de la mise en réseau vers la couche de stockage, un domaine précédemment contrôlé par d'autres entreprises.
Nvidia Vise à Capter l'Ensemble du Marché de l'Infrastructure IA
Le lancement combiné des systèmes LPX, Vera ETL256 et STX signale un pivot stratégique clair. Nvidia s'efforce agressivement de fournir l'intégralité de la pile d'infrastructure IA, créant un écosystème profondément intégré qui étend sa domination du marché. Cette stratégie de plateforme gagne déjà du terrain, avec des partenaires comme Cadence et HPE annonçant de nouvelles solutions construites sur le matériel le plus récent de Nvidia. Ces annonces fournissent une feuille de route concrète sur la manière dont Nvidia prévoit d'atteindre la prévision de son PDG Jensen Huang de sécuriser 1 000 milliards de dollars de commandes pour ses systèmes d'ici 2027.
En pénétrant systématiquement les marchés des CPU et du stockage, Nvidia se positionne pour capter une part beaucoup plus importante des dépenses totales en matériel IA. Cette initiative intensifie la concurrence pour les acteurs établis de ces segments et renforce le rôle de Nvidia en tant que fournisseur central pour le déploiement massif de l'infrastructure de l'industrie IA.