Nhóm thứ hai trong vòng hai tháng qua tuyên bố đã vượt qua hàng rào an ninh xung quanh mô hình AI rủi ro cao của Anthropic, làm dấy lên nghi ngờ về khả năng bảo vệ các công cụ mạnh mẽ nhất của công ty.
Quay lại
Nhóm thứ hai trong vòng hai tháng qua tuyên bố đã vượt qua hàng rào an ninh xung quanh mô hình AI rủi ro cao của Anthropic, làm dấy lên nghi ngờ về khả năng bảo vệ các công cụ mạnh mẽ nhất của công ty.

Nhóm hacker ShinyHunters tuyên bố đã xâm nhập vào hệ thống nội bộ của Anthropic, công ty hàng đầu về an toàn AI, được cho là đã truy cập dữ liệu liên quan đến mô hình Claude Mythos chưa được công bố. Tuyên bố chưa được xác nhận này diễn ra sau một vụ xâm nhập riêng biệt vào tháng 7 khi một nhóm trên Discord có quyền truy cập vào cùng một mô hình rủi ro cao này.
Anthropic vẫn chưa xác nhận công khai tuyên bố vi phạm từ ShinyHunters. Trước đó, công ty đã tuyên bố rằng họ "đã biết về khiếu nại và đang điều tra" sự cố tháng 7, theo báo cáo của Bloomberg.
ShinyHunters được cho là đã chia sẻ ảnh chụp màn hình các bảng quản lý người dùng và các thử nghiệm AI nội bộ. Điều này diễn ra sau vụ vi phạm tháng 7 khi người dùng đoán vị trí trực tuyến của mô hình và sử dụng quyền truy cập đặc quyền của một nhà thầu. Anthropic đã mô tả Claude Mythos có khả năng "xác định và sau đó khai thác các lỗ hổng zero-day trong mọi hệ điều hành lớn".
Những sai sót an ninh lặp đi lặp lại, nếu tuyên bố mới được xác minh, có thể gây tổn hại nghiêm trọng đến danh tiếng của Anthropic như một phòng thí nghiệm AI tập trung vào an toàn và làm xói mòn niềm tin của các khách hàng doanh nghiệp và đối tác như Google. Các sự cố đặt ra những câu hỏi quan trọng về các giao thức an ninh trong toàn bộ ngành AI khi các công ty chạy đua phát triển các mô hình ngày càng mạnh mẽ.
Tuyên bố từ ShinyHunters đánh dấu lần thứ hai trong những tuần gần đây các người dùng trái phép được cho là đã giành được quyền truy cập vào thứ mà Anthropic gọi là AI "có khả năng nguy hiểm". Vào đầu tháng 7, một nhóm người dùng trên nền tảng xã hội Discord đã có quyền truy cập vào Mythos không phải thông qua một cuộc tấn công tinh vi, mà bằng cách đoán vị trí trực tuyến của nó dựa trên các quy ước đặt tên của công ty.
Vụ vi phạm trước đó đã được hỗ trợ bởi một thành viên của nhóm, người có quyền truy cập đặc quyền với tư cách là nhà thầu cho Anthropic. Trong khi những người dùng nói với Bloomberg rằng họ đang sử dụng mô hình cho các nhiệm vụ vô hại, sự cố đã để lộ những điểm yếu an ninh đáng kể. Đối với một công ty có thương hiệu được xây dựng trên sự an toàn và phát triển AI có trách nhiệm, hai vụ vi phạm bị cáo buộc đối với mô hình mạnh mẽ nhất của mình liên tiếp là một mối lo ngại nghiêm trọng đối với các nhà đầu tư và khách hàng.
Anthropic đã giữ kín Claude Mythos, chỉ cấp quyền truy cập cho một nhóm đối tác chọn lọc thông qua một sáng kiến có tên là Project Glasswing. Mô tả của chính công ty về khả năng của mô hình—rằng nó có thể tìm và sử dụng các lỗ hổng phần mềm mới—đã xếp nó vào một danh mục rủi ro duy nhất. Trong khi các đối thủ như OpenAI và Google cũng đang phát triển các mô hình mạnh mẽ, sự nhấn mạnh công khai của Anthropic luôn là kiềm chế các nguy cơ tiềm tàng của AI tiên tiến.
Các vụ vi phạm bị cáo buộc cho thấy an ninh vận hành của chính công ty có thể không tương xứng với các nguyên tắc an toàn cao cả của mình. Nếu một nhóm như ShinyHunters có thể truy cập vào các bảng điều khiển nội bộ, nó sẽ đặt ra khả năng mất cắp mô hình hoặc lộ dữ liệu nhạy cảm từ các đối tác của Anthropic. Các sự cố là lời nhắc nhở rõ ràng rằng khi các mô hình AI trở nên mạnh mẽ hơn, các công ty xây dựng chúng sẽ trở thành những mục tiêu có giá trị hơn.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.