Tencent Holdings Ltd. lanzó su modelo de lenguaje extenso más capaz hasta la fecha, con puntuaciones de referencia que muestran una mejora generacional del 40% en programación, lo que sitúa al modelo en competencia directa con rivales de Anthropic y Google por una fracción del coste.
"El modelo fue construido para equilibrar tres cosas: amplitud de capacidad, evaluación honesta y eficiencia de costes", dijo Tencent en un comunicado que acompañaba al lanzamiento. La empresa ha liberado los pesos del modelo como código abierto y ofrece acceso a la API en su plataforma en la nube.
El nuevo modelo, Hy3 preview, es un sistema de Mezcla de Expertos (MoE) de 295.000 millones de parámetros que mantiene solo 21.000 millones de parámetros activos durante la inferencia. En la prueba de programación SWE-bench Verified, que evalúa la capacidad de un modelo para corregir errores del mundo real de GitHub, Hy3 obtuvo un 74,4%, un salto espectacular desde el 53,0% logrado por su predecesor. Esto lo sitúa por delante de competidores como GLM-5 (77,8%) y Kimi-K2.5 (76,8%) y a poca distancia del Claude Opus 4.6 de Anthropic (80,8%).
El lanzamiento marca un giro estratégico de Tencent hacia una IA comercialmente viable, con un precio y una arquitectura diseñados para un despliegue a gran escala. Los analistas de Citigroup, que mantuvieron su calificación de Compra y su precio objetivo de 783 HK$ para Tencent, calificaron el enfoque del modelo en el equilibrio entre calidad, velocidad y coste como la "dirección estratégica correcta" para la adopción empresarial. El precio, de aproximadamente 0,18 dólares por millón de tokens de entrada, es un 90% más barato que los modelos comparables de la clase GPT-4.
Un enfoque en la viabilidad comercial
Tencent se dirige explícitamente al mercado empresarial mediante el co-diseño del modelo y su marco de inferencia para evitar que las ganancias de capacidad encarezcan el modelo para el despliegue masivo. La arquitectura MoE, que enruta las consultas a subredes especializadas, es clave para esta estrategia, reduciendo significativamente los costes de computación por consulta. La empresa señaló que su anterior modelo insignia tenía más de 400.000 millones de parámetros, una cifra que redujo deliberadamente para encontrar un equilibrio óptimo entre la madurez del razonamiento y el coste.
El modelo ya está integrado en más de diez productos propios de Tencent, incluidos Yuanbao, QQ y Tencent Docs. En aplicaciones internas como CodeBuddy y WorkBuddy, la empresa informó que la latencia del primer token cayó un 54% y el tiempo de generación de extremo a extremo disminuyó un 47%, demostrando la estabilidad del modelo en entornos de producción para flujos de trabajo de agentes complejos.
La revisión de la infraestructura permite la velocidad
El modelo Hy3 preview pasó de un inicio en frío a un lanzamiento de código abierto en menos de tres meses, un cronograma que Tencent atribuye a una revisión completa de su pila de pre-entrenamiento y aprendizaje por refuerzo en febrero. Liderada por el científico jefe de IA Yao Shunyu, la reconstrucción se guio por el principio de integrar el bucle de desarrollo del modelo directamente con los equipos de producto para dar forma a las prioridades de entrenamiento con métricas en vivo.
Esta estrecha integración de modelo y producto le da a Tencent un volante de datos (data flywheel) que pocos competidores pueden igualar, permitiendo a la empresa convertir la interacción del usuario en el mundo real en mejoras rápidas del modelo. Aunque Hy3 todavía está por detrás de los modelos de frontera absoluta de OpenAI y Google DeepMind en algunos puntos de referencia, su relación rendimiento-coste lo convierte en un nuevo competidor formidable en la carrera de la infraestructura de IA.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.