Trong một sự mở rộng đáng kể về sự giám sát của chính phủ, ba trong số các nhà phát triển AI lớn nhất thế giới đã đồng ý cho phép đánh giá bảo mật trước khi phát hành các mô hình tiên tiến nhất của họ.
Quay lại
Trong một sự mở rộng đáng kể về sự giám sát của chính phủ, ba trong số các nhà phát triển AI lớn nhất thế giới đã đồng ý cho phép đánh giá bảo mật trước khi phát hành các mô hình tiên tiến nhất của họ.

Trong một động thái làm tăng đáng kể sự giám sát của chính phủ đối với trí tuệ nhân tạo, Google của Alphabet, Microsoft Corp. và xAI đã đồng ý cung cấp các mô hình AI tiên tiến của họ để đánh giá bảo mật trước khi phát hành ra công chúng. Thỏa thuận này đưa ba gã khổng lồ công nghệ vào mối quan hệ đối tác với Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại Hoa Kỳ, cơ quan vốn đã có các thỏa thuận tương tự với OpenAI và Anthropic PBC.
"Khoa học đo lường độc lập, nghiêm ngặt là điều cần thiết để hiểu về AI tiên tiến và các tác động của nó đối với an ninh quốc gia," Chris Fall, giám đốc CAISI, cho biết trong một tuyên bố. "Sự hợp tác mở rộng này với ngành công nghiệp giúp chúng tôi mở rộng quy mô công việc vì lợi ích công cộng vào một thời điểm quan trọng."
Cơ quan này lưu ý rằng các thỏa thuận với OpenAI và Anthropic cũng đã được đàm phán lại để phù hợp với Kế hoạch Hành động AI của Tổng thống Donald Trump. Kể cả từ năm 2024, trung tâm đã hoàn thành hơn 40 cuộc đánh giá các mô hình AI, bao gồm một số mô hình chưa được công bố ra công chúng. Việc mở rộng bao gồm Google, Microsoft và xAI của Elon Musk diễn ra sau những lo ngại ngày càng tăng của chính quyền về khả năng của các hệ thống mới như mô hình Mythos của Anthropic.
Việc mở rộng quyền truy cập này của chính phủ là hệ quả trực tiếp của các câu hỏi về an ninh quốc gia do AI ngày càng mạnh mẽ đặt ra. Phân tích riêng của Anthropic về mô hình Mythos của mình, được cho là đã tìm thấy hàng nghìn lỗ hổng trong các phần mềm và cơ sở hạ tầng quan trọng, đã thúc đẩy các nỗ lực chính sách trong chính quyền Trump. Nhà Trắng đã phản đối kế hoạch mở rộng quyền truy cập vào Mythos của Anthropic, và Bộ Quốc phòng đang có tranh chấp pháp lý với công ty về tình trạng của họ như một rủi ro chuỗi cung ứng.
Các thỏa thuận này mang lại nhiều quyền hạn hơn cho CAISI, một cơ quan được thành lập với tên gọi Viện An toàn AI dưới thời chính quyền Biden vào năm 2023 và được chính quyền Trump tái lập vào năm ngoái. Mặc dù sự tồn tại của nó vẫn chưa được luật pháp hóa, Kế hoạch Hành động AI của Trump chỉ đạo trung tâm dẫn đầu các đánh giá mô hình liên quan đến an ninh quốc gia. Điều này có thể mở đường cho việc thực thi mới các luật hiện hành khi các cơ quan quản lý tìm cách áp dụng chúng vào các hệ thống AI.
Chiến lược của chính quyền dường như có hai mặt. Một mặt, có một sự thúc đẩy rõ ràng cho việc xem xét an toàn và bảo mật chặt chẽ hơn, do tiềm năng lạm dụng AI mạnh mẽ. Mặt khác, chính quyền Trump cũng tuyên bố mục tiêu dỡ bỏ một số rào cản an toàn AI để thúc đẩy việc triển khai các mô hình mới và đảm bảo Hoa Kỳ duy trì lợi thế cạnh tranh trước Trung Quốc. Điều này tạo ra một hành động cân bằng tinh tế giữa việc giảm thiểu rủi ro và thúc đẩy đổi mới nhanh chóng. Các thỏa thuận đánh giá mới, cùng với một sắc lệnh hành pháp tiềm năng sắp tới, đại diện cho nỗ lực của chính quyền trong việc điều hướng thách thức đó bằng cách tạo ra một quy trình xem xét chính thức của chính phủ.
Bài viết này chỉ mang tính chất cung cấp thông tin và không cấu thành lời khuyên đầu tư.