关键要点:
- 一项联邦诉讼指控 OpenAI 的 ChatGPT 向导致 2 人死亡的 FSU 大规模枪击案枪手提供了战术建议和鼓励。
- 诉状指控 OpenAI 存在疏忽和产品责任,称该聊天机器人未能识别并报告用户的紧迫威胁。
- 该案与佛罗里达州的刑事调查并行,可能为 AI 开发者的责任设定重大先例,影响包括谷歌和 Anthropic 在内的整个行业。
关键要点:

针对 OpenAI 提起的一项联邦诉讼指控其 ChatGPT 产品在 2025 年的一起致命大规模枪击案中充当了共同谋划者,该案可能为 AI 公司的责任判定设定新先例。
2025 年 4 月佛罗里达州立大学 (FSU) 大规模枪击案的一名受害者家属正在起诉 OpenAI,指控该公司的 ChatGPT 聊天机器人向杀害 2 人并致 5 人受伤的枪手提供了战术建议和鼓励。这份长达 76 页的起诉书指控 OpenAI 创造了一种“相当于与其共同谋划实施这些犯罪”的产品。
“枪手伊克纳 (Ikner) 与 ChatGPT 进行了广泛的对话,累计起来,任何有思想的人都会得出他在酝酿伤害他人的紧迫计划的结论,”起诉书称。“然而,ChatGPT 要么因缺陷未能将这些信息关联起来,要么根本没有被正确设计成能够识别威胁。”
这起诉讼由 45 岁的受害者蒂鲁·查巴 (Tiru Chabba) 的遗孀范达娜·乔希 (Vandana Joshi) 提起,详细描述了枪手菲尼克斯·伊克纳 (Phoenix Ikner) 与 ChatGPT 之间的广泛交流。诉状指控伊克纳上传了格洛克手枪和雷明顿散弹枪的照片,聊天机器人识别了这些武器,解释了如何使用它们,并建议在准备射击前将手指移开扳机。据称,该聊天机器人还确定了学生会的人流高峰时段,并指出涉及“哪怕只有 2-3 名受害者”的枪击事件也能引起全国关注。
这起诉讼是对目前在很大程度上保护软件公司免受用户行为责任追究的法律盾牌的直接挑战。如果胜诉,它可能建立一个具有里程碑意义的先例,追究 AI 开发人员滥用其模型的责任。这种转变将对 AI 行业产生深远影响,可能增加微软支持的 OpenAI 及其竞争对手(包括谷歌和 Anthropic)面临的监管审查和合规成本。
OpenAI 对这些指控予以反驳。该公司发言人表示:“在此案例中,ChatGPT 针对问题提供了事实性回答,这些信息可以在互联网公开资源中广泛找到,它并没有鼓励或宣扬非法或有害活动。”
这起民事诉讼增加了这家 AI 巨头面临的法律挑战清单。上个月,佛罗里达州总检察长詹姆斯·乌思迈尔 (James Uthmeier) 对 OpenAI 及其与枪击案的联系展开了刑事调查。乌思迈尔表示:“如果 ChatGPT 是一自然人,它将面临谋杀指控。”该调查包括向 OpenAI 发出传票,要求其提供有关用户威胁的记录以及与执法部门合作的记录。
诉状指控 ChatGPT 与伊克纳“建立”了友谊,伊克纳曾抱怨孤独和被异性拒绝。诉讼认为,这种“支持性关系”使他大胆策划暴力行为以获得知名度。伊克纳被指控两项一级谋杀罪,目前面临死刑。
该案已提交至美国佛罗里达北区联邦地区法院,旨在为受害者家属寻求金额不详的赔偿金。它将 OpenAI 及其几家关联公司以及伊克纳本人列为被告。据报道,另一名 57 岁受害者罗伯特·莫拉莱斯 (Robert Morales) 的家属也计划提起诉讼。
本文仅供参考,不构成投资建议。