Nvidia dévoile un modèle à 120 milliards de paramètres pour les agents d'IA
Nvidia a lancé son Nemotron 3 Super, un puissant modèle ouvert de 120 milliards de paramètres conçu pour améliorer l'efficacité des systèmes d'IA complexes. Le modèle utilise une architecture hybride combinant Mamba, Transformer et le routage Mixture-of-Experts (MoE), avec seulement 12 milliards de paramètres actifs pendant l'inférence pour maximiser les performances. Cette conception répond directement aux défis de l'"explosion de contexte", où les flux de travail multi-agents génèrent jusqu'à 15 fois plus de tokens que les chats standard, et de la "taxe de réflexion" associée à l'exécution de grands modèles pour chaque sous-tâche. Avec une fenêtre de contexte d'un million de tokens, le modèle est conçu pour gérer un raisonnement multi-étapes soutenu pour des applications d'entreprise exigeantes.
Le nouveau modèle alimente la transition vers l'IA d'entreprise autonome
Le lancement de Nemotron 3 Super signale une transition industrielle plus large, des chatbots conversationnels vers des agents d'IA autonomes capables de planifier et d'exécuter des flux de travail complexes. Nvidia positionne sa technologie pour alimenter ce changement dans des domaines comme le développement logiciel, le triage de la cybersécurité et l'automatisation industrielle, ou "l'IA physique". En publiant le modèle avec des poids, des ensembles de données et des recettes d'entraînement ouverts, l'entreprise encourage les développeurs à construire sur sa plateforme, renforçant ainsi son écosystème matériel. La stratégie gagne du terrain, avec des partenaires comme Palantir, Dell et Perplexity intégrant déjà Nemotron 3 Super pour automatiser leurs services et leurs flux de travail.
La stratégie ouverte augmente les risques de propriété intellectuelle en IA
Si les modèles ouverts accélèrent l'innovation et la demande de matériel, ils transforment également l'intelligence centrale du modèle — ses poids — en une cible de grande valeur pour le vol de propriété intellectuelle. Le risque stratégique est significatif, car les adversaires peuvent répliquer les capacités d'un modèle si ses poids sont volés. Cette menace a été soulignée en 2024 lorsqu'un ingénieur de Google a été inculpé pour avoir volé des secrets commerciaux d'IA pour des entreprises chinoises. À mesure que les systèmes d'IA deviennent des infrastructures critiques, l'industrie est sous pression pour adopter des mesures de sécurité plus strictes, telles que les contrôles de vérification multipartites utilisés par des laboratoires comme Anthropic pour protéger leurs actifs de modèles les plus sensibles contre les menaces internes et les attaques externes.