Cette collaboration vise à améliorer les performances du modèle d'IA open-source de Google sur le matériel dominant de Nvidia, une initiative qui renforce le rôle central de Nvidia dans l'écosystème de l'IA.
Retour
Cette collaboration vise à améliorer les performances du modèle d'IA open-source de Google sur le matériel dominant de Nvidia, une initiative qui renforce le rôle central de Nvidia dans l'écosystème de l'IA.

Nvidia et Google collaborent pour optimiser le modèle d'IA Gemma 4 pour les GPU de Nvidia, un partenariat stratégique annoncé le 3 avril qui garantit que le nouveau modèle open-source fonctionne efficacement sur le matériel le plus répandu de l'industrie.
« En collaboration avec Marvell, nous permettons à nos clients de tirer parti de l'écosystème d'infrastructure d'IA de NVIDIA et d'évoluer pour construire des calculs d'IA spécialisés », a déclaré le PDG de Nvidia, Jensen Huang, dans une récente déclaration concernant un partenariat similaire, soulignant la stratégie de l'entreprise consistant à étendre son écosystème. Bien qu'une citation spécifique sur l'accord Gemma ne soit pas encore publique, la stratégie reste cohérente.
Le travail d'optimisation se concentrera sur la garantie que Gemma 4, le dernier modèle open-source de Google, puisse utiliser pleinement les capacités des GPU de Nvidia. Cela suit un modèle d'investissements stratégiques et de partenariats réalisés par Nvidia pour consolider sa position sur le marché, notamment un récent investissement de 2 milliards de dollars dans le fabricant de puces Marvell Technology pour intégrer les puces d'IA personnalisées de Marvell à l'écosystème de Nvidia.
Cette collaboration devrait renforcer la position de Nvidia sur le marché en garantissant que les nouveaux modèles d'IA majeurs sont optimisés pour son matériel, ce qui pourrait augmenter la valeur de son action. Pour Google, cela renforce la compétitivité du modèle Gemma, rendant la nouvelle positive pour les deux entreprises et pour le secteur plus large de l'IA, où la synergie matériel-logiciel est critique pour la performance et l'adoption.
Le partenariat entre Nvidia (NVDA) et Google (GOOGL) sur le modèle Gemma 4 est le dernier exemple de la stratégie de Nvidia pour rester la plateforme centrale du développement de l'intelligence artificielle. En optimisant le nouveau modèle open-source de Google pour ses GPU, Nvidia s'assure que son matériel reste l'option la plus attrayante pour les développeurs et les entreprises cherchant à déployer l'IA à grande échelle. Ce mouvement n'est pas seulement une collaboration technique, mais un jeu stratégique pour fortifier sa domination du marché face à la marée montante des puces d'IA sur mesure.
Cette initiative reflète le récent investissement de 2 milliards de dollars et le partenariat de Nvidia avec Marvell Technology (MRVL). Cet accord visait à intégrer la puce d'IA personnalisée et les produits de mise en réseau de Marvell dans l'écosystème de Nvidia, notamment via sa technologie NVLink. Comme l'a expliqué le PDG de Nvidia, Jensen Huang, à propos de l'accord avec Marvell, l'objectif est de donner de la flexibilité aux clients tout en les gardant au sein de l'architecture Nvidia. « Nous allons étendre cela, via NVLink, et le connecter à Marvell. Ensemble, nous serons en mesure de répondre aux besoins des clients, qu'ils souhaitent utiliser tout l'équipement Nvidia ou qu'ils souhaitent compléter notre équipement Nvidia avec leurs processeurs spécialisés », a déclaré Huang. L'accord avec Marvell a fait bondir l'action MRVL de plus de 11 %, démontrant l'effet « faiseur de rois » d'un soutien de Nvidia.
La collaboration avec Google sur Gemma 4 suit la même logique. Bien que Google développe ses propres accélérateurs d'IA (TPU), il est crucial pour une adoption large de s'assurer que ses modèles open-source fonctionnent de manière optimale sur les GPU de Nvidia, leaders du marché. Cela empêche la fragmentation du paysage du développement de l'IA et renforce l'effet de réseau puissant autour de la plateforme logicielle CUDA de Nvidia. La stratégie est claire : qu'un client achète la plateforme complète de Nvidia ou construise sa propre puce personnalisée avec des partenaires comme Marvell, la technologie de Nvidia, en particulier sa structure de réseau comme NVLink et SpectrumX, reste intégrale au centre de données.
Pour les investisseurs, ces partenariats sont une raison majeure d'être optimiste quant aux perspectives à long terme de Nvidia, même malgré la récente stagnation du cours de l'action. L'entreprise ne vend pas seulement du matériel ; elle construit un écosystème profondément intégré de matériel, de logiciels et de réseaux difficile à reproduire pour les concurrents. En s'associant activement avec des entreprises développant des puces personnalisées ou de nouveaux modèles d'IA, Nvidia transforme des menaces potentielles en partenaires, visant à capturer un marché adressable total (TAM) plus important dans les centres de données d'IA. Cette stratégie consistant à utiliser ses liquidités massives pour des investissements stratégiques a également vu Nvidia prendre des participations dans des sociétés comme Synopsys, CoreWeave et les entreprises de technologie optique Lumentum et Coherent.
Malgré un flux constant de nouvelles positives, l'action de Nvidia se négocie à un ratio cours/bénéfice prévisionnel d'environ 20, une valorisation inédite depuis plus d'une décennie, selon les données de FactSet citées par CNBC. Cela suggère que le marché n'a peut-être pas pleinement intégré le potentiel de croissance des bénéfices à long terme issu de ces expansions stratégiques de l'écosystème. La collaboration sur Gemma 4, bien qu'elle n'implique pas d'investissement direct, consolide davantage le rôle indispensable de Nvidia dans la révolution de l'IA, plaidant fortement pour le fait que les estimations de bénéfices pourraient s'avérer trop basses.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.