Nvidia presenta un modelo de 120 mil millones de parámetros para agentes de IA
Nvidia ha lanzado su Nemotron 3 Super, un potente modelo abierto de 120 mil millones de parámetros diseñado para mejorar la eficiencia de los sistemas de IA complejos. El modelo emplea una arquitectura híbrida que combina Mamba, Transformer y el enrutamiento Mixture-of-Experts (MoE), con solo 12 mil millones de parámetros activos durante la inferencia para maximizar el rendimiento. Este diseño aborda directamente los desafíos de la "explosión de contexto", donde los flujos de trabajo multiagente generan hasta 15 veces más tokens que los chats estándar, y el "impuesto al pensamiento" asociado con la ejecución de grandes modelos para cada subtarea. Con una ventana de contexto de un millón de tokens, el modelo está construido para manejar un razonamiento multi-paso sostenido para aplicaciones empresariales exigentes.
Nuevo modelo impulsa el cambio hacia la IA empresarial autónoma
El lanzamiento de Nemotron 3 Super señala una transición industrial más amplia de los chatbots conversacionales hacia agentes de IA autónomos capaces de planificar y ejecutar flujos de trabajo complejos. Nvidia está posicionando su tecnología para impulsar este cambio en áreas como el desarrollo de software, la clasificación de ciberseguridad y la automatización industrial, o "IA física". Al lanzar el modelo con pesos, conjuntos de datos y recetas de entrenamiento abiertos, la compañía alienta a los desarrolladores a construir sobre su plataforma, fortaleciendo su ecosistema de hardware. La estrategia está ganando terreno, con socios como Palantir, Dell y Perplexity que ya integran Nemotron 3 Super para automatizar sus servicios y flujos de trabajo.
La estrategia abierta aumenta los riesgos de propiedad intelectual de la IA
Si bien los modelos abiertos aceleran la innovación y la demanda de hardware, también convierten la inteligencia central del modelo, sus pesos, en un objetivo de alto valor para el robo de propiedad intelectual. El riesgo estratégico es significativo, ya que los adversarios pueden replicar las capacidades de un modelo si sus pesos son robados. Esta amenaza se destacó en 2024 cuando un ingeniero de Google fue acusado de robar secretos comerciales de IA para empresas chinas. A medida que los sistemas de IA se convierten en infraestructura crítica, la industria enfrenta la presión de adoptar medidas de seguridad más estrictas, como los controles de verificación multipartitos utilizados por laboratorios como Anthropic para proteger sus activos de modelos más sensibles de amenazas internas y ataques externos.