Tencent Holdings Ltd. đã phát hành mô hình ngôn ngữ lớn mạnh mẽ nhất từ trước đến nay, với các điểm số chuẩn cho thấy sự cải thiện 40% về lập trình so với thế hệ trước, đưa mô hình này vào thế cạnh tranh trực tiếp với các đối thủ từ Anthropic và Google với mức chi phí chỉ bằng một phần nhỏ.
Tencent cho biết trong một tuyên bố đi kèm: "Mô hình được xây dựng để cân bằng ba yếu tố: chiều rộng năng lực, đánh giá trung thực và hiệu quả chi phí." Công ty đã mã nguồn mở trọng số mô hình và đang cung cấp quyền truy cập API trên nền tảng đám mây của mình.
Mô hình mới, Hy3 preview, là một hệ thống Hỗn hợp chuyên gia (MoE) 295 tỷ tham số nhưng chỉ giữ 21 tỷ tham số hoạt động trong quá trình suy luận. Trong bài kiểm tra lập trình SWE-bench Verified, đánh giá khả năng sửa lỗi thực tế từ GitHub của mô hình, Hy3 đạt 74,4%, một bước nhảy vọt so với mức 53,0% của phiên bản tiền nhiệm. Kết quả này đưa nó vượt lên trên các đối thủ như GLM-5 (77,8%) và Kimi-K2.5 (76,8%) và tiệm cận với Claude Opus 4.6 (80,8%) của Anthropic.
Việc phát hành đánh dấu một bước chuyển chiến lược của Tencent hướng tới AI khả thi về mặt thương mại, với mức giá và kiến trúc của mô hình được thiết kế để triển khai quy mô lớn. Các nhà phân tích của Citigroup, những người đã duy trì xếp hạng Mua và giá mục tiêu 783 HK$ cho Tencent, gọi sự tập trung của mô hình vào việc cân bằng giữa chất lượng, tốc độ và chi phí là "hướng đi chiến lược đúng đắn" cho việc áp dụng của doanh nghiệp. Mức giá, vào khoảng 0,18 đô la cho mỗi triệu token đầu vào, rẻ hơn khoảng 90% so với các mô hình cùng loại GPT-4.
Tập trung vào khả năng thương mại
Tencent đang nhắm mục tiêu rõ ràng vào thị trường doanh nghiệp bằng cách đồng thiết kế mô hình và khung suy luận của nó để ngăn chặn việc tăng năng lực làm cho giá mô hình vượt quá khả năng triển khai đại trà. Kiến trúc MoE, điều hướng các truy vấn đến các mạng con chuyên biệt, là chìa khóa của chiến lược này, giúp giảm đáng kể chi phí tính toán cho mỗi truy vấn. Công ty lưu ý rằng mô hình hàng đầu trước đây của họ có hơn 400 tỷ tham số, một con số mà họ đã cố ý cắt giảm để tìm ra sự cân bằng tối ưu giữa độ trưởng thành về suy luận và chi phí.
Mô hình đã được tích hợp vào hơn mười sản phẩm của chính Tencent, bao gồm Yuanbao, QQ và Tencent Docs. Trong các ứng dụng nội bộ như CodeBuddy và WorkBuddy, công ty báo cáo độ trễ token đầu tiên giảm 54% và thời gian tạo đầu cuối giảm 47%, chứng minh tính ổn định của mô hình trong môi trường sản xuất cho các quy trình tác nhân phức tạp.
Cải tổ cơ sở hạ tầng cho phép tăng tốc
Mô hình Hy3 preview đã đi từ giai đoạn khởi động đến khi phát hành mã nguồn mở trong chưa đầy ba tháng, một mốc thời gian mà Tencent cho là nhờ vào cuộc cải tổ toàn diện ngăn xếp tiền huấn luyện và học tăng cường vào tháng Hai. Dưới sự dẫn dắt của Giám đốc Khoa học AI Yao Shunyu, việc tái xây dựng được hướng dẫn bởi nguyên tắc tích hợp vòng lặp phát triển mô hình trực tiếp với các nhóm sản phẩm để hình thành các ưu tiên huấn luyện bằng các số liệu trực tiếp.
Sự tích hợp chặt chẽ giữa mô hình và sản phẩm mang lại cho Tencent một "bánh đà dữ liệu" mà ít đối thủ nào có thể sánh kịp, cho phép công ty chuyển đổi các tương tác của người dùng trong thế giới thực thành các cải tiến mô hình nhanh chóng. Mặc dù Hy3 vẫn còn bám đuổi các mô hình hàng đầu tuyệt đối từ OpenAI và Google DeepMind trên một số chuẩn kiểm thử, tỷ lệ hiệu suất trên chi phí khiến nó trở thành một nhân tố mới đáng gờm trong cuộc đua hạ tầng AI.
Bài viết này chỉ dành cho mục đích thông tin và không cấu thành lời khuyên đầu tư.