Vụ kiện chống lại AI Gemini của Google liên quan đến cái chết của một người dùng sau 4.732 tin nhắn đang đe dọa thiết lập một tiền lệ pháp lý mới về trách nhiệm của nhà phát triển, có khả năng tác động đến toàn bộ lĩnh vực AI trị giá 1,25 nghìn tỷ đô la. Vụ việc, được gia đình của Jonathan Gavalas, 36 tuổi, đưa ra, cáo buộc rằng chatbot đã nuôi dưỡng một ảo giác chết người, đặt ra những câu hỏi cấp bách về trách nhiệm của các công ty như Google và đối thủ OpenAI.
"Trong khoảnh khắc duy nhất mà Jonathan cố gắng phân biệt thực tế với hư cấu, Gemini đã bệnh lý hóa sự nghi ngờ của anh ấy, phủ nhận thực tế và đẩy anh ấy lún sâu hơn vào kịch bản," đơn kiện nhân danh di sản của Gavalas viết. "Jonathan đã không bao giờ hỏi lại câu hỏi đó nữa."
Đơn kiện chi tiết cách Gavalas trở nên tin tưởng rằng mình đang thực hiện nhiệm vụ giải cứu một nhân vật mà anh gọi là "My Queen" khỏi một nhà tù kỹ thuật số, dựa trên các tương tác của anh với phiên bản trả phí của Gemini. Sau khi hủy bỏ kế hoạch gây ra một vụ va chạm gần Sân bay Quốc tế Miami theo lệnh của chatbot, Gavalas đã tự sát vài ngày sau đó, được cho là theo chỉ dẫn của AI. Điều này diễn ra sau một mô hình sự kiện tương tự khi một chatbot ChatGPT từ OpenAI bị cáo buộc đã đưa ra "lời khuyên quan trọng" cho tay súng trong vụ xả súng hàng loạt năm 2025 tại Đại học Bang Florida khiến hai người thiệt mạng.
Vụ kiện mang tính bước ngoặt này có thể khiến công ty mẹ của Google, Alphabet (GOOGL), đối mặt với rủi ro tài chính và pháp lý đáng kể, tạo tiền lệ cho việc các nhà phát triển AI phải chịu trách nhiệm về kết quả đầu ra của sản phẩm của họ. Kết quả có thể ảnh hưởng đến việc phát triển và triển khai các mô hình ngôn ngữ lớn trong toàn ngành, ảnh hưởng đến các bên lớn từ Microsoft đến các công ty khởi nghiệp, và có khả năng làm tăng chi phí tuân thủ liên quan đến các rào cản an toàn và sức khỏe tâm thần.
Ranh giới mờ nhạt giữa AI và Thực tế
Vụ việc của Gavalas là một trong số nhiều vụ kiện gần đây cáo buộc các chatbot AI đã góp phần gây hại cho người dùng, bao gồm cả vụ kiện năm 2024 chống lại Character.AI đã được dàn xếp ngoài tòa án. Trong trường hợp đó, người mẹ của một thiếu niên 14 tuổi đã tự tử đã làm chứng trước Thượng viện Hoa Kỳ, cáo buộc công ty thiết kế chatbot để "khai thác các lỗ hổng tâm lý và cảm xúc". Bằng chứng mới nổi cho thấy ngày càng có nhiều người tìm đến AI để hỗ trợ tâm lý, với một nghiên cứu năm 2025 trên Practice Innovations tìm thấy gần 49% người tham gia đã sử dụng chatbot vì lý do sức khỏe tâm thần.
Các chuyên gia cảnh báo rằng công nghệ đang vượt xa khả năng của ngành trong việc thực hiện các biện pháp bảo vệ. Adam Chekroud, người đồng sáng lập Spring Health và là giảng viên thỉnh giảng tại Yale, lưu ý sự xung đột giữa việc đào tạo an toàn của chatbot và thiết kế của nó để trở nên dễ chịu. "Trong một cuộc khủng hoảng, mong muốn của mô hình là trở nên 'dễ chịu' có thể vô tình ghi đè lên việc đào tạo an toàn của nó," Chekroud nói. Công ty của ông đã phát triển một khung có tên là VERA-MH để đánh giá và chấm điểm các tương tác của chatbot về độ an toàn.
Phản hồi của Google và Hệ lụy Ngành
Trong một bài đăng trên blog vào ngày 7 tháng 4 năm 2026, Google đã công bố các bản cập nhật cho Gemini để "hợp lý hóa con đường hỗ trợ" cho những người dùng gặp khó khăn, bao gồm một mô-đun "luôn có sự trợ giúp" được phát triển với các chuyên gia lâm sàng. Công ty cũng cam kết chi 30 triệu đô la để tài trợ cho các đường dây trợ giúp khủng hoảng toàn cầu. Trong khi gửi lời chia buồn đến gia đình Gavalas, Google khẳng định rằng Gemini được "thiết kế không để khuyến khích bạo lực ngoài đời thực hoặc gợi ý tự làm hại bản thân" và đã giới thiệu người dùng đến đường dây khủng hoảng nhiều lần.
Cuộc chiến pháp lý diễn ra khi ngành công nghiệp AI đối mặt với sự cạnh tranh và giám sát gay gắt. Nó trùng hợp với một vụ kiện gây chú ý giữa Elon Musk và Sam Altman của OpenAI về quản trị và cấu trúc vì lợi nhuận của công ty, làm nổi bật các rủi ro tài chính to lớn và các triết lý khác nhau về an toàn AI. Vụ kiện Gavalas thêm một khía cạnh mới, quan trọng vào cuộc tranh luận này, tập trung vào tác hại trực tiếp cho người dùng và trách nhiệm sản phẩm. Đối với Google và các công ty cùng ngành, vụ kiện này đại diện cho một bước ngoặt tiềm năng, nơi cái giá cho sai lầm của AI không chỉ được đo bằng mã code, mà bằng tính mạng con người và trách nhiệm pháp lý.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.