Anthropic Triển Khai 'Chế Độ Tự Động' Để Cân Bằng Tốc Độ và An Toàn của AI
Ngày 24 tháng 3, Anthropic thông báo ra mắt "chế độ tự động" cho công cụ lập trình Claude Code của mình, một tính năng được thiết kế để giải quyết một nan giải cốt lõi của nhà phát triển: quy trình phê duyệt mọi hành động của AI một cách tẻ nhạt so với rủi ro cấp cho nó quyền hạn không kiểm soát. Trước đây, nhà phát triển có thể sử dụng lệnh "dangerously-skip-permissions" để cấp quyền tự chủ hoàn toàn, nhưng điều này tạo ra rủi ro vận hành đáng kể. Chế độ tự động mới cung cấp một giải pháp trung gian bằng cách tự động hóa quy trình phê duyệt cho các lệnh an toàn.
Tính năng này, hiện có sẵn dưới dạng bản xem trước nghiên cứu cho người dùng gói Team, sử dụng lớp bảo mật AI tích hợp để phân loại các hành động được đề xuất. Các thao tác được coi là an toàn sẽ được thực hiện tự động, trong khi các lệnh có khả năng gây phá hoại như xóa tệp hàng loạt hoặc thực thi mã độc hại sẽ bị chặn. Hệ thống này ban đầu tương thích với các mô hình Claude Sonnet 4.6 và Opus 4.6 của Anthropic và sẽ được mở rộng cho người dùng Enterprise và API trong những ngày tới.
Tính Năng Mới Tăng Cường Cạnh Tranh AI Agent Với OpenAI
Bản cập nhật sản phẩm này là một động thái chiến lược làm tăng cường sự cạnh tranh để thống trị thị trường AI doanh nghiệp. Bằng cách chuyển quyết định khi nào cần xin phép từ người dùng sang chính AI, Anthropic đã nâng cao khả năng của các tác nhân mã hóa tự động của mình vượt xa nhiều công cụ hiện có từ các đối thủ như OpenAI và GitHub thuộc sở hữu của Microsoft. Điều này thúc đẩy ngành công nghiệp tiến gần hơn đến một tương lai của các quy trình làm việc AI độc lập hơn.
Việc phát hành chế độ tự động là một phần trong nỗ lực rộng lớn hơn của Anthropic nhằm xây dựng một bộ công cụ tự động tích hợp cho các nhà phát triển doanh nghiệp. Nó theo sau các đợt ra mắt gần đây của Claude Code Review, để tự động phát hiện lỗi, và Dispatch for Cowork, để giao nhiệm vụ cho các tác nhân AI. Ma trận sản phẩm này nhằm mục đích rõ ràng là tăng năng suất của doanh nghiệp và chiếm thị phần lớn hơn trong thị trường công cụ phát triển AI đầy lợi nhuận.
Các Chi Tiết An Toàn Chính Vẫn Chưa Được Tiết Lộ
Bất chấp việc thúc đẩy quyền tự chủ, một sự không chắc chắn quan trọng đối với các nhà adopters doanh nghiệp tiềm năng là việc thiếu minh bạch xung quanh các tiêu chuẩn bảo mật của tính năng mới. Anthropic vẫn chưa công khai chi tiết các tiêu chí cụ thể mà bộ phân loại AI của họ sử dụng để phân biệt các hành động an toàn với các hành động rủi ro. Thông tin này là cần thiết cho các nhóm bảo mật, những người phải xác thực công cụ trước khi nó có thể được triển khai trong các môi trường nhạy cảm.
Hướng dẫn của Anthropic khuyến nghị người dùng vận hành chế độ tự động trong các môi trường "sandbox" cô lập, tách biệt với các hệ thống sản xuất. Lời khuyên này thừa nhận rằng tính năng này làm giảm, nhưng không loại bỏ, rủi ro vận hành. Việc áp dụng rộng rãi có thể sẽ phụ thuộc vào độ tin cậy đã được chứng minh của hệ thống và việc Anthropic cung cấp sự rõ ràng hơn về các hàng rào bảo vệ an toàn nội bộ của mình.