핵심 요약:
- Knowledge Atlas의 GLM-5 시리즈는 엔지니어링 최적화를 통해 코딩 에이전트 시나리오에서 시스템 처리량을 132% 향상시켰습니다.
- 이번 업데이트로 비정상 출력률이 10,000회 작업당 10회에서 3회 미만으로 70% 이상 급감했습니다.
- 회사는 오픈 소스 SGLang 커뮤니티에 근본적인 수정 사항을 기여하여 기술적 입지를 강화했습니다.
핵심 요약:

인공지능 도입의 높은 비용 문제를 해결하기 위해 Knowledge Atlas (02513.HK)는 코딩 작업에서 GLM-5 모델의 처리 속도를 132% 향상시키는 성과를 거두었습니다. 이는 기업의 AI 도입에 따른 재정적 장벽을 낮출 수 있는 상당한 효율성 개선입니다.
회사는 기술 블로그 포스트를 통해 이러한 성능 돌파구를 상세히 설명하며, 최적화가 초거대 규모의 '코딩 에이전트(Coding Agent)' 배포 시나리오에 집중되었다고 밝혔습니다. 회사의 엔지니어링 팀은 "기초 엔지니어링 최적화에 따라 GLM-5 시리즈는 시스템 처리량을 최대 132%까지 향상시켰다"고 적었습니다.
엔지니어링 보고서에 따르면 이러한 개선은 모델 안정성도 비약적으로 높여 시스템의 비정상 출력률이 10,000건당 약 10건에서 3건 미만으로 떨어졌습니다. Knowledge Atlas는 또한 인기 있는 오픈 소스 추론 프레임워크인 SGLang에 풀 리퀘스트(Pull Request)를 제출하여 더 넓은 개발자 커뮤니티에 수정 사항을 공유함으로써, 모든 사용자를 위한 기술 발전 의지를 보여주었습니다.
이 돌파구는 투자자들에게 중요한 의미를 갖습니다. AI 도입의 가장 큰 장벽인 막대한 운영 비용 문제를 직접적으로 해결하기 때문입니다. 처리량(정해진 시간 내에 모델이 수행할 수 있는 작업 수)을 늘림으로써 기업은 동일한 하드웨어로 더 많은 사용자를 수용할 수 있으며, 이는 엔비디아와 같은 제공업체의 GPU에 의존하는 고가의 AI 인프라에 대한 투자 수익률(ROI)을 직접적으로 개선합니다.
높은 처리량과 낮은 오류율이라는 이중 혜택은 Knowledge Atlas에 강력한 경쟁 우위를 제공합니다. 개발자가 코드를 작성하고 디버깅하는 것을 돕는 AI 코딩 어시스턴트를 도입하려는 기업에 신뢰성은 성능만큼이나 중요합니다. 오류가 적은 AI 에이전트는 더 신뢰할 수 있으며 인간의 감독이 덜 필요하므로 운영상의 마찰을 더욱 줄여줍니다.
최적화 사항을 오픈 소스 SGLang 프로젝트에 다시 기여하기로 한 회사의 결정 또한 전략적입니다. 이는 기술 리더로서 Knowledge Atlas의 평판을 높이고 AI 개발 커뮤니티 내에서 호의를 형성합니다. 이는 최고의 엔지니어링 인재를 유치하고, 개선된 SGLang 프레임워크에 익숙한 개발자들이 회사의 모델을 더 널리 채택하도록 장려할 수 있습니다. 특정 수정 사항은 SGLang 커뮤니티의 Pull Request #22811로 제출되었습니다.
홍콩 증권거래소 상장사인 Knowledge Atlas에게 이러한 기술적 진보는 더 강력한 시장 지위로 이어질 수 있습니다. AI 산업이 성숙해짐에 따라 초점은 순수한 모델 기능에서 효율적이고 확장 가능하며 비용 효율적인 배포로 이동하고 있습니다. 이 분야에서 입증된 GLM-5 시리즈의 성능은 새로운 기업 고객들을 끌어들여 수익 성장을 견인하고 혼잡한 시장에서 확실한 차별화 요소를 제공할 수 있습니다.
이 기사는 정보 제공만을 목적으로 하며 투자 조언을 구성하지 않습니다.