關鍵要點:
- Knowledge Atlas 的 GLM-5 系列在工程優化後,在代碼助手場景中實現了 132% 的系統吞吐量增長。
- 此次更新還將異常輸出率降低了 70% 以上,從每萬次操作約 10 次降至 3 次以下。
- 該公司將底層修復方案貢獻給了開源 SGLang 社區,增強了其技術地位。
關鍵要點:

為了解決人工智能部署成本高昂的問題,Knowledge Atlas (02513.HK) 成功將其 GLM-5 模型在編程任務中的處理速度提升了 132%,這一重大效率提升有望降低企業採用 AI 的財務門檻。
該公司在技術博客文章中詳細介紹了這一性能突破,稱優化重點在於超大規模的「代碼助手 (Coding Agent)」部署場景。其工程團隊寫道:「經過底層工程優化,GLM-5 系列實現了高達 132% 的系統吞吐量增長。」
工程報告指出,這些改進還極大地增強了模型的穩定性,系統的異常輸出率從約萬分之十降至萬分之三以下。Knowledge Atlas 還通過向流行的開源推理框架 SGLang 提交拉取請求 (Pull Request),將修復方案貢獻給了更廣泛的開發者社區,體現了其致力於為所有用戶推動底層技術發展的承諾。
這一突破對投資者具有重要意義,因為它直接解決了 AI 採用過程中的最大障礙:巨大的運營成本。通過提高吞吐量(即模型在給定時間內可以執行的任務數量),企業可以使用相同的硬件服務更多用戶,從而直接提高昂貴 AI 基礎設施(通常依賴於英偉達等供應商的 GPU)的投資回報率。
高吞吐量和低錯誤率雙重優勢賦予了 Knowledge Atlas 極具競爭力的優勢。對於希望部署 AI 編程助手(幫助開發人員編寫和調試代碼)企業來說,可靠性與性能同樣至關重要。錯誤率較低的 AI 助手更值得信賴,且需要的人工監督更少,從而進一步減少了運營摩擦。
該公司決定將優化成果回饋給開源 SGLang 項目,這也是一項戰略舉措。它提升了 Knowledge Atlas 作為技術領導者的聲譽,並在 AI 開發社區中建立了良好的聲望。這有助於吸引頂尖工程人才,並鼓勵已經熟悉改進版 SGLang 框架的開發人員更廣泛地採用其模型。具體的修復方案已在 SGLang 社區的第 22811 號拉取請求中提交。
對於在香港交易所上市的 Knowledge Atlas 而言,這一技術進步可能轉化為更強大的市場地位。隨著 AI 行業的日趨成熟,關注焦點正從純粹的模型能力轉向高效、可擴展且具有成本效益的部署。GLM-5 系列在此領域的卓越表現可能會吸引新一波企業客戶,推動收入增長,並在擁擠的市場中提供明確的差異化優勢。
本文僅供參考,不構成投資建議。