Tencent Holdings Ltd. a publié son modèle de langage de grande taille le plus performant à ce jour. Les scores de référence montrent une amélioration générationnelle de 40 % en codage, ce qui place le modèle en concurrence directe avec ses rivaux d'Anthropic et de Google pour une fraction du coût.
« Le modèle a été conçu pour équilibrer trois éléments : l'étendue des capacités, une évaluation honnête et l'efficacité des coûts », a déclaré Tencent dans un communiqué accompagnant la sortie. L'entreprise a ouvert le code des poids du modèle et propose un accès API sur sa plateforme cloud.
Le nouveau modèle, Hy3 preview, est un système de mélange d'experts (MoE) de 295 milliards de paramètres qui ne maintient que 21 milliards de paramètres actifs pendant l'inférence. Lors du test de codage SWE-bench Verified, qui évalue la capacité d'un modèle à corriger des bugs réels provenant de GitHub, Hy3 a obtenu un score de 74,4 %, un bond spectaculaire par rapport aux 53,0 % atteints par son prédécesseur. Cela le place devant des concurrents comme GLM-5 (77,8 %) et Kimi-K2.5 (76,8 %) et à portée de tir du Claude Opus 4.6 d'Anthropic (80,8 %).
Cette sortie marque un pivot stratégique pour Tencent vers une IA commercialement viable, avec une tarification et une architecture conçues pour un déploiement à grande échelle. Les analystes de Citigroup, qui ont maintenu leur recommandation d'achat et leur objectif de cours de 783 HK$ sur Tencent, ont qualifié l'accent mis par le modèle sur l'équilibre entre qualité, vitesse et coût de « direction stratégique correcte » pour l'adoption par les entreprises. Le prix, à environ 0,18 $ par million de jetons d'entrée, est environ 90 % moins cher que les modèles comparables de classe GPT-4.
Un accent sur la viabilité commerciale
Tencent cible explicitement le marché des entreprises en co-concevant le modèle et son cadre d'inférence pour éviter que les gains de capacité ne rendent le modèle trop coûteux pour un déploiement de masse. L'architecture MoE, qui dirige les requêtes vers des sous-réseaux spécialisés, est la clé de cette stratégie, abaissant considérablement les coûts de calcul par requête. L'entreprise a noté que son précédent modèle phare comptait plus de 400 milliards de paramètres, un chiffre qu'elle a délibérément réduit pour trouver un équilibre optimal entre maturité de raisonnement et coût.
Le modèle est déjà intégré dans plus de dix produits de Tencent, notamment Yuanbao, QQ et Tencent Docs. Au sein d'applications internes comme CodeBuddy et WorkBuddy, l'entreprise a rapporté que la latence du premier jeton a chuté de 54 % et que le temps de génération de bout en bout a diminué de 47 %, démontrant la stabilité du modèle dans des environnements de production pour des flux de travail d'agents complexes.
La refonte de l'infrastructure permet d'accélérer
Le modèle Hy3 preview est passé d'un démarrage à froid à une version open source en moins de trois mois, un délai que Tencent attribue à une refonte complète de sa pile de pré-entraînement et d'apprentissage par renforcement en février. Dirigée par le scientifique en chef de l'IA Yao Shunyu, la reconstruction a été guidée par le principe d'intégrer la boucle de développement du modèle directement aux équipes produit afin de façonner les priorités d'entraînement avec des mesures en direct.
Cette intégration étroite entre modèle et produit donne à Tencent un volant de données (data flywheel) que peu de concurrents peuvent égaler, permettant à l'entreprise de convertir les interactions des utilisateurs en temps réel en améliorations rapides du modèle. Bien que Hy3 soit encore en retrait par rapport aux modèles de pointe d'OpenAI et de Google DeepMind sur certains benchmarks, son rapport performance-prix en fait un nouvel entrant redoutable dans la course à l'infrastructure d'IA.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.