Lầu Năm Góc chọn xAI cho các hoạt động mật với hợp đồng 200 triệu USD
Lầu Năm Góc đã chính thức quyết định triển khai chatbot Grok của xAI do Elon Musk sáng lập trong các mạng lưới mật của mình, đánh dấu một thời điểm then chốt trong việc chính phủ chấp nhận trí tuệ nhân tạo. Động thái này đặt xAI vào trung tâm của các hoạt động an ninh quốc gia nhạy cảm. Việc tích hợp này xuất phát từ một hợp đồng được văn phòng AI của Lầu Năm Góc trao cho xAI, Google, OpenAI và Anthropic vào tháng 7, với giá trị tiềm năng lên tới 200 triệu USD. Tuy nhiên, trước đây chỉ có xAI và Anthropic được phê duyệt cho sử dụng mật, tạo tiền đề cho sự cạnh tranh trực tiếp.
Đánh giá của NSA chỉ ra Grok có 'Mối quan ngại bảo mật đặc biệt'
Quyết định nâng cấp Grok mâu thuẫn với các cảnh báo nội bộ từ nhiều cơ quan liên bang. Một đánh giá mật của Cơ quan An ninh Quốc gia (NSA) vào tháng 11 năm 2024 đã kết luận rằng Grok đặt ra "mối quan ngại bảo mật đặc biệt" không được tìm thấy ở các mô hình khác như Claude của Anthropic. Các quan chức tại Cục Dịch vụ Tổng hợp (GSA) cũng đã lên tiếng cảnh báo, viện dẫn khả năng Grok dễ bị tấn công bởi dữ liệu độc hại và thao túng. Những lo ngại này nghiêm trọng đến mức GSA đã đình chỉ Grok cho nhân viên của mình sử dụng và nó vẫn bị loại khỏi nền tảng USAi, một môi trường thử nghiệm cho các nhân viên liên bang để kiểm tra các mô hình AI. Việc thúc đẩy áp dụng Grok, bất chấp những dấu hiệu đỏ này, đã góp phần vào việc Matthew Johnson, trưởng bộ phận AI có trách nhiệm của Lầu Năm Góc, người đã nhấn mạnh các vấn đề an toàn của Grok trong các bản ghi nhớ nội bộ, gần đây đã từ chức.
Lầu Năm Góc gây áp lực với Anthropic bằng tối hậu thư vào thứ Sáu
Trong khi chấp nhận xAI, Bộ Quốc phòng đồng thời đang đối đầu với Anthropic về các rào cản an toàn nghiêm ngặt hơn của hãng này. Bộ trưởng Quốc phòng Pete Hegseth đã đưa ra thời hạn vào thứ Sáu để Anthropic đồng ý với các quy tắc lỏng lẻo hơn cho các ứng dụng quân sự hoặc đối mặt với lệnh cấm tiềm năng khỏi công việc của chính phủ. Các hướng dẫn hiện tại của Anthropic cấm AI của họ được sử dụng để tạo điều kiện cho bạo lực, phát triển vũ khí hoặc tiến hành giám sát. Cuộc xung đột này phản ánh sự chia rẽ chính trị trong chính phủ, nơi một số quan chức cấp cao coi Anthropic là "quá thức tỉnh" và các lập trường an toàn của họ là một trở ngại. Ngược lại, xAI đã đồng ý với ngôn ngữ cho phép các mô hình của họ được sử dụng trong tất cả các kịch bản quân sự hợp pháp, mang lại lợi thế quan trọng trong việc đảm bảo các hợp đồng quốc phòng.