Anthropic 部署“自动模式”以平衡 AI 速度与安全性
3 月 24 日,Anthropic 宣布为其 Claude Code 编程工具推出“自动模式”。该功能旨在解决开发人员的核心难题:是繁琐地批准每个 AI 操作,还是承担授予其不受限制权限的风险。此前,开发人员可以使用“dangerously-skip-permissions”命令授予完全自主权,但这带来了重大的操作风险。新的自动模式通过自动批准安全命令提供了一种折衷方案。
该功能目前作为团队计划用户的研究预览版提供,它使用内置的 AI 安全层来对提议的操作进行分类。被认为是安全的操作将自动执行,而像批量文件删除或恶意代码执行等潜在破坏性命令则会被阻止。该系统最初兼容 Anthropic 的 Claude Sonnet 4.6 和 Opus 4.6 模型,并将在未来几天扩展到企业版和 API 用户。
新功能加剧了与 OpenAI 的 AI 代理竞争
此次产品更新是一项战略举措,它加剧了企业 AI 市场的主导权竞争。通过将何时请求权限的决定从用户转移到 AI 本身,Anthropic 提升了其自主编码代理的能力,超越了 OpenAI 和微软旗下的 GitHub 等竞争对手的许多现有工具。这推动了该行业向更独立的 AI 工作流程的未来迈进。
自动模式的发布是 Anthropic 旨在为企业开发人员构建一套集成自主工具的更广泛举措的一部分。此前,该公司发布了用于自动检测错误的 Claude Code Review,以及用于将任务委托给 AI 代理的 Dispatch for Cowork。这个产品矩阵明确旨在提高企业生产力,并夺取利润丰厚的 AI 开发工具市场的更大份额。
关键安全细节仍未披露
尽管积极推动自主性,但对于潜在的企业采用者而言,一个关键的不确定性在于新功能安全标准缺乏透明度。Anthropic 尚未公开详细说明其 AI 分类器用来区分安全操作和风险操作的具体标准。这些信息对于安全团队至关重要,他们在将工具部署到敏感环境中之前必须对其进行验证。
Anthropic 自己的指导建议用户在与生产系统分离的隔离“沙盒”环境中操作自动模式。此建议承认该功能可以降低但不能消除操作风险。广泛的采用可能取决于该系统经证实的可靠性,以及 Anthropic 提供关于其内部安全保障措施的更大透明度。