Anthropic 部署「自動模式」以平衡 AI 速度與安全性
3 月 24 日,Anthropic 宣布為其 Claude Code 編程工具推出「自動模式」。該功能旨在解決開發人員的核心難題:是繁瑣地批准每個 AI 操作,還是承擔授予其不受限制權限的風險。此前,開發人員可以使用「dangerously-skip-permissions」命令授予完全自主權,這帶來了重大的操作風險。新的自動模式透過自動批准安全命令提供了一種折衷方案。
該功能目前作為團隊計畫使用者的研究預覽版提供,它使用內置的 AI 安全層來對提議的操作進行分類。被認為是安全的操作將自動執行,而像批量文件刪除或惡意程式碼執行等潛在破壞性命令則會被阻止。該系統最初兼容 Anthropic 的 Claude Sonnet 4.6 和 Opus 4.6 模型,並將在未來幾天擴展到企業版和 API 使用者。
新功能加劇了與 OpenAI 的 AI 代理競爭
此次產品更新是一項戰略舉措,它加劇了企業 AI 市場的主導權競爭。透過將何時請求權限的決定從使用者轉移到 AI 本身,Anthropic 提升了其自主編碼代理的能力,超越了 OpenAI 和微軟旗下的 GitHub 等競爭對手的大量現有工具。這推動了該行業向更獨立的 AI 工作流程的未來邁進。
自動模式的發布是 Anthropic 旨在為企業開發人員建構一套整合自主工具的更廣泛舉措的一部分。此前,該公司發布了用於自動檢測錯誤的 Claude Code Review,以及用於將任務委託給 AI 代理的 Dispatch for Cowork。這個產品矩陣明確旨在提高企業生產力,並奪取利潤豐厚的 AI 開發工具市場的更大份額。
關鍵安全細節仍未披露
儘管積極推動自主性,但對於潛在的企業採用者而言,一個關鍵的不確定性在於新功能安全標準缺乏透明度。Anthropic 尚未公開詳細說明其 AI 分類器用來區分安全操作和風險操作的具體標準。這些資訊對於安全團隊至關重要,他們在將工具部署到敏感環境中之前必須對其進行驗證。
Anthropic 自己的指導建議使用者在與生產系統分離的隔離「沙盒」環境中操作自動模式。此建議承認該功能可以降低但不能消除操作風險。廣泛的採用可能取決於該系統經證實的可靠性,以及 Anthropic 提供關於其內部安全保障措施的更大透明度。