Anthropic hủy bỏ cam kết an toàn chính để duy trì cạnh tranh
Anthropic, công ty AI trị giá 380 tỷ USD, đã chính thức từ bỏ trụ cột trung tâm của Chính sách Quy mô Có trách nhiệm của mình. Trong một bài đăng trên blog vào thứ Ba, công ty đã đảo ngược cam kết năm 2023 là tạm dừng phát triển AI nếu không thể đảm bảo các biện pháp an toàn của mình là đầy đủ. Động thái này là một sự thay đổi lớn so với danh tính "an toàn là trên hết" đã làm nên sự khác biệt của họ so với các đối thủ cạnh tranh. Giám đốc Khoa học Jared Kaplan tuyên bố rằng công ty không thể đưa ra các cam kết đơn phương để tạm dừng "nếu các đối thủ đang tiến rất nhanh", báo hiệu một sự thay đổi chiến lược hướng tới động lực thương mại hơn là sự thuần túy về ý thức hệ.
Sự chuyển hướng này diễn ra sau một giai đoạn thành công thương mại đáng kể, khi Anthropic báo cáo doanh thu hàng năm của mình đang tăng trưởng với tốc độ gấp 10 lần mỗi năm. Quyết định này đưa họ đến gần hơn với các đối thủ như OpenAI, công ty cũng đã cập nhật sứ mệnh của mình vào năm 2024 để giảm bớt sự nhấn mạnh vào an toàn trong điều lệ công khai của mình. Cả hai công ty được cho là đang chuẩn bị cho các đợt IPO, hy vọng tận dụng sự quan tâm mạnh mẽ của nhà đầu tư. Thay đổi chính sách của Anthropic đã xóa bỏ một nguyên tắc cốt lõi được thiết lập khi CEO Dario Amodei rời OpenAI vào năm 2020, viện dẫn những lo ngại rằng công ty cũ của ông ưu tiên tốc độ hơn sự an toàn.
Lầu Năm Góc đe dọa buộc tiếp cận công nghệ với thời hạn vào thứ Sáu
Việc Anthropic đảo ngược chính sách trùng hợp với một tranh chấp nghiêm trọng với Bộ Quốc phòng Hoa Kỳ. Trong một cuộc họp căng thẳng vào thứ Ba, Bộ trưởng Quốc phòng Pete Hegseth đã đưa ra tối hậu thư cho CEO Dario Amodei: cấp cho quân đội quyền truy cập không giới hạn vào mô hình AI Claude của họ trước thứ Sáu hoặc đối mặt với các hình phạt nặng. Lầu Năm Góc đe dọa sẽ viện dẫn Đạo luật Sản xuất Quốc phòng, một đạo luật thời Chiến tranh Lạnh, để buộc công ty tuân thủ. Họ cũng cảnh báo rằng có thể tuyên bố Anthropic là "rủi ro chuỗi cung ứng", một động thái sẽ làm phức tạp các hợp đồng của họ trên toàn ngành.
Xung đột phát sinh từ yêu cầu của Lầu Năm Góc về việc sử dụng AI cho "tất cả các mục đích hợp pháp", điều này xung đột với các giới hạn đỏ đã nêu của Anthropic chống lại việc công nghệ của họ được sử dụng cho vũ khí tự trị hoặc giám sát hàng loạt. Bất chấp những lời đe dọa, Lầu Năm Góc thừa nhận sự phụ thuộc của họ vào mô hình Claude, được sử dụng cho công việc nhạy cảm nhất của họ. Một quan chức Quốc phòng lưu ý, "Lý do duy nhất chúng tôi vẫn nói chuyện với những người này là chúng tôi cần họ và chúng tôi cần họ ngay bây giờ." Động thái này đặt Anthropic vào một vị trí đàm phán bấp bênh nhưng mạnh mẽ khi thời hạn đến gần.