TL;DR Anthropic 意外泄露的 50 万行源代码揭示了一种复杂的智能体架构,旨在实现主动记忆整合和显著降低成本,这可能为竞争对手提供了其核心优势的路线图。
- 泄露包含 59.8 MB 的内部调试文件,揭示了旨在降低运营成本的多智能体系统。
- 发现名为“KAIROS”和“autoDream”的功能,允许 Claude Code 在用户空闲时主动处理任务并整理记忆。
- 源代码包含“反蒸馏”标志和“隐身模式”,反映了 Anthropic 在保护知识产权和在开源社区中秘密运作的战略。
TL;DR Anthropic 意外泄露的 50 万行源代码揭示了一种复杂的智能体架构,旨在实现主动记忆整合和显著降低成本,这可能为竞争对手提供了其核心优势的路线图。

Anthropic 的一次意外代码泄露曝光了 Claude Code 高度先进的架构,揭示了至少八项未发布的功能以及一个能显著降低运营成本的多智能体系统。此次事件涉及发布一个 59.8 MB 的内部调试文件,这让 OpenAI 等竞争对手以前所未有的视角审视了使该 AI 编程助手备受开发者青睐的设计原则。
Claude Code 的负责人随后在 X 上承认了这一错误,并表示:“这不是安全漏洞……只是开发者的失误。”
这一错误发生在 3 月 31 日,当时 Anthropic 的工程师在版本 2.1.88 的公共 npm 包中包含了一个含有约 50 万行未混淆 TypeScript 源代码的文件。虽然该文件很快被删除,但代码已被镜像到 GitHub,该仓库在一天内获得了近 3 万颗星,凸显了开发者对高性能 AI 模型底层机制的浓厚兴趣。
此次泄露的主要影响是暴露了 Anthropic 的知识产权,详细说明了对手可以复制以缩小性能差距的架构设计。然而,这种被揭示的复杂性也可能增强 Anthropic 的声誉并吸引人才,从而在 AI 开发市场中创造出复杂的竞争动态。
讨论度最高的发现是代号为 KAIROS 的功能,这是一种“后台守护进程模式”,允许 Claude Code 在用户空闲时处理任务并巩固记忆。该系统包括一个 autoDream 函数,智能体在此函数中整理零散的观察结果,解决矛盾信息,并将模糊的推论转化为坚实的知识,模仿人类大脑在睡眠期间处理记忆的方式。
这种主动的方法与目前大多数 AI 工具的被动、反应式性质形成了鲜明对比。KAIROS 使模型能够保持用户偏好、项目目标和记忆文件的清晰、更新状态,而不是丢失上下文或需要低效的压缩,从而为新会话提供无缝的起点。
源代码还详细介绍了一种节省成本的子智能体架构,该架构使用 fork(派生)模型来共享提示词缓存。当用户创建一个子智能体时,它会从父智能体继承相同的上下文副本。由于 Anthropic 的 API 会缓存此上下文,因此并行运行五个智能体来执行安全审计、重构和文档编制等任务的成本,几乎与按顺序运行单个智能体的成本相同。
这种设计有效地将 Claude Code 变成了一个智能体调度平台,而不仅仅是单线程工具。代码概述了这些子智能体的三种模式——fork、teammate 和 worktree——每种模式都设计用于不同的并行处理场景,从分支任务到隔离的 Git 工作流。
除了性能架构,代码还揭示了内置的竞争和运营安全措施。一个名为 ANTI_DISTILLATION_CC 的标志会向 API 请求添加虚假的工具定义,这种方法旨在污染和降低任何通过抓取 Claude Code 的 API 流量进行训练的竞争模型的质量。
另一项功能“隐身模式”(Undercover Mode)指示 AI 在向外部代码库提交代码时隐藏其身份。系统提示词明确禁止在提交信息中提及 “Claude Code” 或任何内部项目代号。这使得 Anthropic 能够使用自己的 AI 为开源项目做出贡献,而不会留下公开痕迹,从而有效地将其模型部署为一名沉默的软件工程师。
此次泄露表明,Claude Code 的有效性源于在记忆、成本效率和竞争策略方面的深度架构关注。虽然这些设计的暴露带来了风险,但它也作为 Anthropic 技术领先地位的公开展示。泄露后不久,该公司加速发布了一个名为 “Buddy” 的次要功能(终端数字宠物),这表明一种理念:用户连接而非仅仅是技术规格,将成为关键的长期差异化因素。
本文仅供参考,不构成投资建议。