NVIDIA valide Groq et confirme un lancement au second semestre avec Samsung
Jensen Huang, PDG de NVIDIA, a confirmé le 17 mars que l'innovateur de puces IA Groq utilise Samsung comme partenaire de fabrication. S'exprimant publiquement, Huang a déclaré que les systèmes basés sur les puces spécialisées de Groq devraient être lancés au second semestre de l'année. Cette annonce constitue une validation majeure pour Groq, confirmant ses capacités de production et son calendrier de produits tout en le positionnant comme un acteur crédible dans le paysage concurrentiel des semi-conducteurs.
La reconnaissance par le leader du marché intensifie l'attention portée au secteur des puces IA, où de nouvelles architectures remettent en question la domination des GPU traditionnels. Pour les investisseurs, la déclaration de Huang confirme que Groq n'est pas seulement un concurrent théorique, mais une entreprise avec une feuille de route produit tangible et une chaîne d'approvisionnement de fabrication de premier rang, corroborant les rapports selon lesquels Groq aurait exhorté Samsung à augmenter la production de wafers pour répondre à la forte demande.
Nouvelle stratégie ciblant l'inférence, 40% des revenus 2024
La déclaration de NVIDIA fait partie d'une stratégie plus large visant à défendre et à étendre sa position sur le marché de l'inférence IA, un segment responsable d'environ 40% de ses revenus de centre de données en 2024. Alors que les GPU de NVIDIA sont la norme industrielle pour le processus de formation des modèles IA, qui est gourmand en calcul, le marché de l'inférence — où les modèles entraînés sont déployés pour une utilisation réelle — est plus fragmenté et concurrentiel. Des entreprises comme AMD, Google avec ses TPU et d'autres concepteurs de silicium personnalisés se disputent tous des parts de marché avec des solutions qui privilégient les performances à faible coût et à grande vitesse.
Groq a spécifiquement conçu ses unités de traitement linguistique (LPU) à cette fin. Contrairement aux GPU qui utilisent de la mémoire à large bande passante (HBM) située à côté de la puce, les LPU de Groq utilisent de la SRAM intégrée directement sur la puce. Cette conception permet un traitement plus rapide et plus économe en énergie des tâches séquentielles, ce qui est caractéristique des charges de travail d'inférence IA comme la génération de texte pour les chatbots. En reconnaissant les progrès de Groq, NVIDIA signale sa conscience de ces avantages architecturaux et se prépare à concurrencer plus agressivement dans ce segment de marché critique.
Le partenariat Groq pourrait refléter le succès de Mellanox, évalué à 11 milliards de dollars
Les analystes de marché suggèrent que l'intérêt de NVIDIA pour Groq va au-delà d'une simple reconnaissance, reflétant potentiellement la stratégie derrière son acquisition réussie de Mellanox. Huang lui-même a laissé entendre que la technologie de Groq pourrait être intégrée comme un accélérateur au sein de l'architecture de NVIDIA. Ce plan s'est avéré énormément réussi avec Mellanox, qui a transformé les capacités de NVIDIA en matière de réseaux de centres de données et génère désormais environ 11 milliards de dollars de revenus trimestriels pour cette division.
Cette comparaison souligne l'impact financier potentiel d'une collaboration plus approfondie avec Groq. Des rapports ont circulé concernant un potentiel accord de licence majeur et l'acquisition de talents qui donnerait à NVIDIA accès à la propriété intellectuelle et aux talents d'ingénierie de Groq, y compris son fondateur Jonathan Ross. Une telle démarche permettrait à NVIDIA d'offrir une solution plus spécialisée et de premier ordre pour l'inférence, complétant sa domination des GPU dans la formation et créant une solution complète et unique pour l'infrastructure de calcul IA.