Các cơ quan quản lý tài chính hàng đầu của Hoa Kỳ đã đưa ra cảnh báo trực tiếp cho các ngân hàng lớn nhất quốc gia, đánh dấu một giai đoạn mới của việc giám sát chặt chẽ hơn đối với việc tích hợp trí tuệ nhân tạo trong hệ thống tài chính.
Bộ trưởng Tài chính Hoa Kỳ Scott Bessent và Chủ tịch Cục Dự trữ Liên bang Jerome Powell đã triệu tập một cuộc họp khẩn cấp với các giám đốc điều hành ngân hàng vào thứ Ba để cảnh báo họ về các rủi ro hệ thống do mô hình AI mới nhất của Anthropic gây ra, một động thái có thể làm chậm việc áp dụng AI trong lĩnh vực này. Cuộc họp ngày 9 tháng 4, do Bloomberg đưa tin, đánh dấu lần đầu tiên những người đứng đầu Bộ Tài chính và Fed cùng can thiệp vào các rủi ro cụ thể của một mô hình AI thương mại.
"Khả năng xảy ra các lỗi tương quan hoặc các rủi ro phát sinh từ một mô hình duy nhất được sử dụng rộng rãi là một vectơ rủi ro hệ thống mới đòi hỏi sự chú ý ngay lập tức của chúng tôi", một nguồn tin am hiểu về cuộc họp cho biết.
Mặc dù các số liệu cụ thể về việc áp dụng mô hình Anthropic mới trong lĩnh vực ngân hàng không được tiết lộ, nhưng hành động mang tính phòng ngừa của các cơ quan quản lý cho thấy mức độ lo ngại cao. Cảnh báo được đưa ra khi các ngân hàng đang tích cực khám phá AI để cải thiện hiệu quả, trong đó riêng JPMorgan Chase & Co. (JPM) chi hơn 15 tỷ USD hàng năm cho công nghệ. Sự tiếp xúc của lĩnh vực tài chính với các nhà cung cấp công nghệ bên thứ ba vốn đã là trọng tâm quản lý chính, cuộc họp này mở rộng mối quan tâm đó sang các mô hình AI nền tảng.
Vấn đề cốt lõi là liệu việc áp dụng nhanh chóng, rộng rãi một mô hình AI duy nhất có thể tạo ra một dạng rủi ro hệ thống mới hay không, nơi mà một sai sót hoặc hành vi không lường trước được trong mô hình có thể tác động đồng thời đến nhiều tổ chức tài chính lớn. Điều này có thể dẫn đến một chuỗi thất bại. Các cơ quan quản lý hiện được dự kiến sẽ ban hành hướng dẫn chính thức về quản lý rủi ro mô hình AI trong vòng sáu tháng tới, có khả năng yêu cầu các ngân hàng đa dạng hóa các nhà cung cấp AI của họ và chứng minh khả năng phục hồi của mô hình.
Cuộc họp không nằm trong kế hoạch nhấn mạnh sự gia tăng đáng kể trong việc giám sát quản lý trí tuệ nhân tạo trong ngành tài chính. Khác với các hướng dẫn trước đây về an ninh mạng hoặc quản lý nhà cung cấp bên thứ ba, sự can thiệp này nhắm vào chính công nghệ nền tảng. Việc tập trung vào một mô hình cụ thể từ Anthropic, một nhà phát triển AI hàng đầu được hỗ trợ bởi các công ty tài chính và công nghệ lớn, làm nổi bật mối lo ngại rằng một hệ sinh thái AI đồng nhất có thể tạo ra các điểm yếu đơn lẻ (single points of failure) trong toàn bộ hệ thống ngân hàng.
Các tổ chức tài chính đã sớm và nhiệt tình áp dụng học máy cho mọi thứ, từ phát hiện gian lận đến giao dịch thuật toán và xét duyệt khoản vay. Tuy nhiên, sự phức tạp và bản chất "hộp đen" của thế hệ mô hình ngôn ngữ lớn (LLM) mới nhất đặt ra một thách thức mới. Các cơ quan quản lý lo ngại rằng các ngân hàng có thể không có chuyên môn nội bộ để thẩm định đầy đủ các mô hình này về các thành kiến ẩn giấu, lỗ hổng bảo mật hoặc khả năng xảy ra hành vi thuận chu kỳ (pro-cyclical) không mong muốn trong một cuộc khủng hoảng thị trường.
Cảnh báo từ Bessent và Powell có khả năng kích hoạt một làn sóng rà soát nội bộ và có thể làm chậm việc triển khai AI tiên tiến trong các ngân hàng Hoa Kỳ. Các Giám đốc rủi ro giờ đây sẽ chịu áp lực phải chứng minh với các cơ quan quản lý rằng tổ chức của họ có khuôn khổ mạnh mẽ để thử nghiệm, xác thực và giám sát các mô hình AI của bên thứ ba. Điều này gần như chắc chắn sẽ làm tăng chi phí tuân thủ và có thể buộc phải có sự thay đổi chiến lược từ việc dựa vào các nhà cung cấp mô hình thống trị duy nhất sang cách tiếp cận đa nhà cung cấp đa dạng hơn để giảm thiểu rủi rủi ro tập trung.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.