Lầu Năm Góc đưa Anthropic vào danh sách đen vì tranh chấp hợp đồng 200 triệu USD
Vào ngày 17 tháng 3 năm 2026, chính phủ Hoa Kỳ đã xếp nhà phát triển AI Anthropic vào danh sách rủi ro an ninh quốc gia và chuỗi cung ứng "không thể chấp nhận được", một hành động bắt nguồn từ bế tắc về hợp đồng quốc phòng trị giá 200 triệu USD. Xung đột bùng lên sau khi Anthropic từ chối dỡ bỏ các hạn chế đạo đức đối với công nghệ của mình, khẳng định các mô hình AI của họ không được sử dụng để triển khai vũ khí tự hành hoặc giám sát hàng loạt trong nước. Trong một hồ sơ tòa án, chính quyền Trump đã bảo vệ quyết định này, coi đó là vấn đề đàm phán hợp đồng và an ninh quốc gia chứ không phải vi phạm quyền tự do ngôn luận của Anthropic. Việc chỉ định này, thường dành cho các đối thủ nước ngoài, cấm Anthropic khỏi các hợp đồng quốc phòng cụ thể và đã bị công ty thách thức là "chưa từng có tiền lệ và bất hợp pháp".
Anthropic kiện khi nhãn rủi ro đe dọa các hợp đồng trị giá hàng tỷ USD
Để đáp lại, Anthropic đã đệ nhiều đơn kiện chống lại chính phủ Hoa Kỳ, tìm cách chặn việc Lầu Năm Góc đưa họ vào danh sách đen. Công ty, với giá trị 380 tỷ USD và doanh thu theo năm đạt 14 tỷ USD, lập luận rằng việc chỉ định này là trả đũa và có sai sót về thủ tục. Anthropic tuyên bố rằng động thái này có thể khiến họ mất hàng tỷ USD hợp đồng do nhãn "rủi ro chuỗi cung ứng" tạo ra sự không chắc chắn đáng kể cho các khách hàng chính phủ và thương mại của họ. Hậu quả đã lan rộng khắp thị trường, với các khách hàng trong lĩnh vực công nghệ pháp lý đang tiến hành đánh giá ưu tiên cao về sự phụ thuộc của họ vào các mô hình của Anthropic. Sự không chắc chắn này buộc các công ty phải đánh giá các mô hình AI thay thế từ các đối thủ cạnh tranh như OpenAI và Google, điều này có thể dẫn đến sự sụt giảm hiệu suất đối với những người coi Claude của Anthropic là mô hình vượt trội cho các nhiệm vụ chuyên biệt.
Xung đột đạo đức AI tạo ra sự không chắc chắn rộng khắp trong ngành
Xung đột này làm nổi bật sự căng thẳng ngày càng tăng giữa các nhà phát triển AI hàng đầu và các cơ quan chính phủ về ứng dụng quân sự của trí tuệ nhân tạo. Trong khi Anthropic đã có lập trường đạo đức vững chắc, đối thủ của họ là OpenAI được cho là đã đàm phán hợp đồng riêng với Lầu Năm Góc sau khi ban đầu đồng ý với lập trường của Anthropic. Tình hình này tạo ra sự khó đoán định trên toàn bộ hệ sinh thái AI, ảnh hưởng đến các công ty xây dựng dịch vụ dựa trên các mô hình nền tảng này.
Khi chính phủ chỉ định một công ty AI hàng đầu của Mỹ là rủi ro an ninh quốc gia, sự không chắc chắn đó không chỉ dừng lại ở đó—nó lan tỏa khắp toàn bộ hệ sinh thái.
— Thomas Bueler-Faudree, CEO của August.
Bất chấp cuộc chiến pháp lý đang diễn ra, một số người trong ngành vẫn lạc quan, dự đoán rằng cuộc tranh chấp này chỉ là tạm thời. Họ tin rằng các bên cuối cùng sẽ tìm ra cách hợp tác, viện dẫn các tiền lệ trong quá khứ khi các công ty công nghệ đã kiện thành công chính phủ và sau đó trở thành đối tác chủ chốt.