Anthropic cáo buộc các công ty AI Trung Quốc thực hiện hơn 16 triệu lượt tương tác bất hợp pháp
Công ty nghiên cứu AI Anthropic đã tiết lộ vào thứ Hai rằng họ đã phát hiện và chấm dứt "các chiến dịch quy mô công nghiệp" của ba công ty Trung Quốc nhằm đánh cắp trái phép khả năng từ mô hình Claude hàng đầu của họ. Các công ty này – DeepSeek, Moonshot AI và MiniMax – bị cáo buộc đã tạo ra hơn 24.000 tài khoản gian lận để tạo ra hơn 16 triệu lượt tương tác với Claude. Mục tiêu là thực hiện "các cuộc tấn công chắt lọc" (distillation attacks), một phương pháp huấn luyện một mô hình AI nhỏ hơn, rẻ hơn dựa trên đầu ra của một mô hình phức tạp hơn, sao chép hiệu quả tài sản trí tuệ của nó với một phần nhỏ chi phí phát triển.
Quy mô của vụ trộm bị cáo buộc là đáng kể và nhắm vào các khả năng cụ thể. Anthropic đã theo dõi hơn 13 triệu lượt tương tác từ MiniMax, công ty này được cho là đã chuyển hướng gần một nửa lưu lượng truy cập của mình sang mô hình Claude mới nhất ngay sau khi nó ra mắt. Moonshot AI chịu trách nhiệm cho hơn 3,4 triệu lượt tương tác nhắm vào khả năng viết mã và suy luận có tác nhân, trong khi DeepSeek đã thực hiện hơn 150.000 lượt tương tác nhằm cải thiện logic nền tảng và tạo ra các phản hồi an toàn chống kiểm duyệt. Những cáo buộc này tương tự như một lá thư từ OpenAI gửi các nhà lập pháp vào đầu tháng, trong đó cũng cáo buộc DeepSeek có các hành vi tương tự.
Musk trả đũa, cáo buộc Anthropic đánh cắp dữ liệu
Ngay khi ngành công nghiệp đang xử lý các tuyên bố của Anthropic, Elon Musk đã leo thang xung đột vào ngày 23 tháng 2 bằng cách cáo buộc chính Anthropic đã đánh cắp dữ liệu huấn luyện với "quy mô lớn". Cáo buộc đối nghịch này biến vấn đề từ một tranh chấp IP đơn thuần giữa Mỹ và Trung Quốc thành một cuộc chiến lời qua tiếng lại rộng lớn hơn, đa mặt trận trong lĩnh vực AI. Cuộc nội chiến công khai này phơi bày môi trường cạnh tranh cao, rủi ro lớn và tạo ra rủi ro uy tín đáng kể cho Anthropic và các nhà đầu tư lớn của nó, bao gồm Amazon và Google.
Tranh cãi khuếch đại lời kêu gọi kiểm soát chip AI của Mỹ chặt chẽ hơn
Anthropic trực tiếp liên kết các cuộc tấn công chắt lọc với cuộc tranh luận chính sách đang diễn ra của Mỹ về kiểm soát xuất khẩu công nghệ. Công ty lập luận rằng việc thực hiện các hoạt động hút trích dữ liệu quy mô lớn như vậy đòi hỏi quyền truy cập vào các chip AI tiên tiến, và do đó các cuộc tấn công này "củng cố lý do cho các biện pháp kiểm soát xuất khẩu." Bằng cách hạn chế Trung Quốc tiếp cận các chất bán dẫn hiệu suất cao, Anthropic cho rằng Mỹ có thể hạn chế không chỉ việc huấn luyện mô hình trực tiếp mà còn cả quy mô của hành vi trộm cắp IP trái phép.
Ngoài cạnh tranh thương mại, Anthropic còn cảnh báo về rủi ro an ninh quốc gia. Các mô hình được chắt lọc bất hợp pháp có khả năng không giữ lại các biện pháp bảo vệ an toàn được tích hợp trong các hệ thống của Mỹ, có thể cho phép các chính phủ chuyên quyền sử dụng chúng cho "các hoạt động tấn công mạng, chiến dịch thông tin sai lệch và giám sát hàng loạt." Quan điểm này cũng được các chuyên gia chính sách chia sẻ.
Rõ ràng từ lâu rằng một phần lý do cho sự tiến bộ nhanh chóng của các mô hình AI Trung Quốc là do đánh cắp thông qua chắt lọc các mô hình tiên tiến của Mỹ. Bây giờ chúng ta biết điều này là một sự thật.
— Dmitri Alperovitch, Chủ tịch Silverado Policy Accelerator.