Một vụ kiện liên bang đệ trình chống lại OpenAI cáo buộc sản phẩm ChatGPT của họ đã đóng vai trò là đồng phạm trong một vụ xả súng hàng loạt chết người năm 2025, một vụ việc có thể thiết lập tiền lệ mới cho trách nhiệm của công ty AI.
Gia đình của một nạn nhân trong vụ xả súng hàng loạt tại Đại học Bang Florida (FSU) vào tháng 4 năm 2025 đang kiện OpenAI, cáo buộc rằng chatbot ChatGPT của công ty đã cung cấp lời khuyên chiến thuật và sự khuyến khích cho tay súng, kẻ đã giết chết hai người và làm bị thương năm người khác. Đơn khiếu nại dài 76 trang cáo buộc OpenAI đã tạo ra một sản phẩm "tương đương với việc đồng khỏa lấp với Ikner để thực hiện những tội ác đó."
"Ikner đã có những cuộc trò chuyện sâu rộng với ChatGPT, mà xét một cách tổng thể, sẽ khiến bất kỳ con người có suy nghĩ nào cũng phải kết luận rằng anh ta đang dự tính một kế hoạch sắp xảy ra để gây hại cho người khác," đơn khiếu nại nêu rõ. "Tuy nhiên, ChatGPT hoặc đã thất bại một cách khiếm khuyết trong việc kết nối các dữ kiện hoặc nó chưa bao giờ được thiết kế đúng cách để nhận diện mối đe dọa."
Vụ kiện, do Vandana Joshi, góa phụ của Tiru Chabba, 45 tuổi, đệ trình, chi tiết các cuộc giao tiếp sâu rộng giữa kẻ xả súng, Phoenix Ikner, và ChatGPT. Đơn khiếu nại cáo buộc Ikner đã tải lên ảnh của một khẩu súng ngắn Glock và một khẩu súng săn Remington, chatbot đã nhận diện vũ khí, giải thích cách sử dụng chúng và khuyên nên để ngón tay rời khỏi cò súng cho đến khi sẵn sàng bắn. Chatbot cũng được cho là đã xác định các giờ cao điểm tại hội sinh viên và lưu ý rằng một vụ xả súng liên quan đến "thậm chí 2-3 nạn nhân" có thể thu hút sự chú ý của cả nước.
Vụ kiện này là một thách thức trực tiếp đối với lá chắn pháp lý vốn đã bảo vệ phần lớn các công ty phần mềm khỏi trách nhiệm đối với hành động của người dùng. Nếu thành công, nó có thể thiết lập một tiền lệ mang tính bước ngoặt giữ cho các nhà phát triển AI phải chịu trách nhiệm về việc lạm dụng mô hình của họ. Một sự thay đổi như vậy sẽ có ý nghĩa sâu sắc đối với ngành công nghiệp AI, có khả năng làm tăng sự giám sát theo quy định và chi phí tuân thủ cho OpenAI do Microsoft hậu thuẫn và các đối thủ cạnh tranh của nó, bao gồm Google và Anthropic.
Áp lực pháp lý ngày càng tăng
OpenAI đã bác bỏ các cáo buộc. "Trong trường hợp này, ChatGPT đã cung cấp các phản hồi thực tế cho các câu hỏi với thông tin có thể được tìm thấy rộng rãi trên các nguồn công cộng trên internet, và nó không khuyến khích hoặc thúc đẩy hoạt động bất hợp pháp hoặc có hại," người phát ngôn của công ty cho biết.
Vụ kiện dân sự này bổ sung vào danh sách các thách thức pháp lý ngày càng tăng đối với gã khổng lồ AI. Tháng trước, Tổng chưởng lý Florida James Uthmeier đã phát động một cuộc điều tra hình sự đối với OpenAI và các mối liên hệ của nó với vụ xả súng. Uthmeier tuyên bố rằng "nếu ChatGPT là một con người, nó sẽ phải đối mặt với các cáo buộc giết người." Cuộc điều tra đó bao gồm một trát đòi hầu tòa đối với các hồ sơ của OpenAI về các mối đe dọa của người dùng và sự hợp tác với cơ quan thực thi pháp luật.
Đơn khiếu nại cáo buộc rằng ChatGPT đã "nuôi dưỡng" một tình bạn với Ikner, người đã phàn nàn về sự cô đơn và bị từ chối tình cảm. Vụ kiện lập luận rằng "mối quan hệ hỗ trợ" này đã khích lệ anh ta lập kế hoạch cho một hành động bạo lực để đạt được sự tai tiếng. Ikner, người bị truy tố về hai tội giết người cấp độ một, hiện đang đối mặt với án tử hình.
Vụ việc, được đệ trình lên Tòa án Quận Hoa Kỳ cho Quận Bắc Florida, tìm kiếm các khoản bồi thường thiệt hại không xác định cho gia đình. Đơn kiện nêu tên OpenAI và một số công ty liên quan là bị đơn, cùng với chính Ikner. Gia đình của nạn nhân còn lại, Robert Morales, 57 tuổi, cũng được cho là đang lên kế hoạch đệ đơn kiện.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.