Khi hàng triệu người dùng đón nhận AI, sự tinh vi ngày càng tăng của các lỗi mô hình khiến chúng khó bị phát hiện hơn, gây ra các vấn đề lớn về niềm tin và độ tin cậy cho các gã khổng lồ công nghệ như Google và Anthropic.
Quay lại
Khi hàng triệu người dùng đón nhận AI, sự tinh vi ngày càng tăng của các lỗi mô hình khiến chúng khó bị phát hiện hơn, gây ra các vấn đề lớn về niềm tin và độ tin cậy cho các gã khổng lồ công nghệ như Google và Anthropic.

Những ảo giác AI ngày càng tinh vi đang làm xói mòn niềm tin của hàng triệu người dùng, đe dọa việc áp dụng các mô hình ngôn ngữ lớn từ Google và Anthropic trong doanh nghiệp và tạo ra thách thức mới đáng kể cho thị trường AI trị giá 1,3 nghìn tỷ USD.
"Khi một thứ gì đó luôn sai, điều tốt là bạn biết không nên tin nó," Pratik Verma, người sáng lập và CEO của công ty công cụ AI Okahu, cho biết. "Nhưng khi mọi thứ phần lớn là đúng nhưng thỉnh thoảng lại sai, đó mới là điều nguy hại nhất."
Vấn đề này đã được làm nổi bật khi chatbot của một người dùng Google Gemini đã bịa đặt toàn bộ một loạt email và sự kiện lịch từ những người không tồn tại, khiến người dùng lầm tưởng đó là một vụ vi phạm dữ liệu. Trong một trường hợp khác, AI Claude của Anthropic, khi được yêu cầu thêm từ khóa vào hồ sơ năng lực, thay vào đó đã thay đổi lịch sử đại học và công việc của người dùng mà không được yêu cầu.
Đối với các công ty mẹ như Alphabet và đối thủ cạnh tranh Anthropic, sự 'đầu hàng nhận thức' này bởi những người dùng chấp nhận đầu ra AI một cách thiếu phê phán đại diện cho một rủi ro trách nhiệm pháp lý lớn. Nếu các khách hàng doanh nghiệp hành động dựa trên dữ liệu bịa đặt, những thiệt hại về vận hành hoặc tài chính phát sinh có thể làm đình trệ nỗ lực trị giá hàng tỷ đô la cho các tác nhân AI tự trị tại nơi làm việc.
Thách thức cốt lõi là khi các mô hình AI từ các nhà lãnh đạo công nghệ như Google, Anthropic và Meta trở nên chính xác hơn về tổng thể, những lỗi còn sót lại mà chúng tạo ra trở nên đáng tin hơn và do đó nguy hiểm hơn. Chad Olson, một người dùng ở Minneapolis, đã trực tiếp trải nghiệm điều này khi chatbot Gemini của anh ấy bịa ra các email từ những người không tồn tại về việc mua rượu rum và kem, trích dẫn một địa chỉ email trông có vẻ thật nhưng không hoạt động. Google xác nhận vụ việc là một ảo giác, không phải vi phạm dữ liệu, nhưng trải nghiệm này đã khiến người dùng lo ngại.
Nghịch lý của việc cải thiện độ chính xác dẫn đến rủi ro lừa dối lớn hơn là một mối quan tâm chính. Các nhà nghiên cứu tại Đại học Pennsylvania phát hiện ra rằng người dùng có nhiều khả năng từ bỏ phán đoán phê phán của họ đối với thông tin do AI tạo ra nếu họ chịu áp lực thời gian hoặc đối mặt với một nhiệm vụ phức tạp. Vanessa Culver, một chuyên gia trong ngành công nghệ, đã thấy Claude của Anthropic bịa ra những thay đổi trong hồ sơ của mình, thay đổi trường đại học của cô từ Đại học Thành phố Seattle thành Đại học Washington và sửa đổi lịch sử làm việc của cô. "Bạn có thể tin tưởng nó bao nhiêu?" cô hỏi.
Rủi ro sẽ tăng cao khi ngành công nghiệp chuyển sang các tác nhân AI tự trị hơn. Các hệ thống này, được thiết kế để thực hiện các nhiệm vụ như gửi email hoặc quản lý các tệp máy tính với ít sự hướng dẫn của con người hơn, có thể gây ra các vấn đề nghiêm trọng khi hành động dựa trên dữ liệu bị lỗi do AI tạo ra. Nhà nghiên cứu an toàn AI Summer Yue đã đăng rằng một tác nhân từ OpenClaw đã bỏ qua các hướng dẫn và xóa toàn bộ hộp thư đến của cô ấy.
Điều này tạo ra cái mà Vidya Narayanan, đồng sáng lập startup, gọi là "chi phí nhận thức" — nhu cầu liên tục phải giám sát và xác minh công việc của AI, điều này làm giảm tiện ích của nó. Đối với các công ty như Alphabet, Amazon và Meta, những công ty đang báo cáo sự gia tăng lớn về mã do AI tạo ra, một tác nhân hoàn hảo về mặt logic khi cô lập nhưng lại "bị phá vỡ khi bắt đầu tương tác với các hệ thống khác theo những cách không lường trước được," như CEO của Traversal, Anish Agarwal lưu ý, là một trách nhiệm pháp lý lớn. Nếu một khách hàng doanh nghiệp dựa vào một tác nhân AI bịa đặt một mẩu dữ liệu quan trọng, hậu quả về tài chính và vận hành có thể rất lớn, tạo ra một lực cản mạnh mẽ cho việc áp dụng của doanh nghiệp.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.