关键要点:
- Knowledge Atlas 的 GLM-5 系列在工程优化后,在代码助手场景中实现了 132% 的系统吞吐量增长。
- 此次更新还将异常输出率降低了 70% 以上,从每万次操作约 10 次降至 3 次以下。
- 该公司将底层修复方案贡献给了开源 SGLang 社区,增强了其技术地位。
关键要点:

为了解决人工智能部署成本高昂的问题,Knowledge Atlas (02513.HK) 成功将其 GLM-5 模型在编程任务中的处理速度提升了 132%,这一重大效率提升有望降低企业采用 AI 的财务门槛。
该公司在技术博客文章中详细介绍了这一性能突破,称优化重点在于超大规模的“代码助手 (Coding Agent)”部署场景。其工程团队写道:“经过底层工程优化,GLM-5 系列实现了高达 132% 的系统吞吐量增长。”
工程报告指出,这些改进还极大地增强了模型的稳定性,系统的异常输出率从约万分之十降至万分之三以下。Knowledge Atlas 还通过向流行的开源推理框架 SGLang 提交拉取请求 (Pull Request),将修复方案贡献给了更广泛的开发者社区,体现了其致力于为所有用户推动底层技术发展的承诺。
这一突破对投资者具有重要意义,因为它直接解决了 AI 采用过程中的最大障碍:巨大的运营成本。通过提高吞吐量(即模型在给定时间内可以执行的任务数量),企业可以使用相同的硬件服务更多用户,从而直接提高昂贵 AI 基础设施(通常依赖于英伟达等供应商的 GPU)的投资回报率。
高吞吐量和低错误率的双重优势赋予了 Knowledge Atlas 极具竞争力的优势。对于希望部署 AI 编程助手(帮助开发人员编写和调试代码)的企业来说,可靠性与性能同样至关重要。错误率较低的 AI 助手更值得信赖,且需要的人工监督更少,从而进一步减少了运营摩擦。
该公司决定将优化成果回馈给开源 SGLang 项目,这也是一项战略举措。它提升了 Knowledge Atlas 作为技术领导者的声誉,并在 AI 开发社区中建立了良好的声望。这有助于吸引顶尖工程人才,并鼓励已经熟悉改进版 SGLang 框架的开发人员更广泛地采用其模型。具体的修复方案已在 SGLang 社区的第 22811 号拉取请求中提交。
对于在香港交易所上市的 Knowledge Atlas 而言,这一技术进步可能转化为更强大的市场地位。随着 AI 行业的日趋成熟,关注焦点正从纯粹的模型能力转向高效、可扩展且具有成本效益的部署。GLM-5 系列在此领域的卓越表现可能会吸引新一波企业客户,推动收入增长,并在拥挤的市场中提供明确的差异化优势。
本文仅供参考,不构成投资建议。