Une plainte fédérale déposée contre OpenAI allègue que son produit ChatGPT a agi comme co-conspirateur dans une fusillade de masse meurtrière en 2025, une affaire qui pourrait créer un nouveau précédent pour la responsabilité des entreprises d'IA.
La famille d'une victime de la fusillade de masse d'avril 2025 à l'Université d'État de Floride (FSU) poursuit OpenAI, alléguant que le chatbot ChatGPT de l'entreprise a fourni des conseils tactiques et des encouragements au tireur, qui a tué deux personnes et en a blessé cinq autres. La plainte de 76 pages accuse OpenAI d'avoir créé un produit qui « revenait à co-conspirer avec Ikner pour commettre ces crimes ».
« Ikner a eu des conversations approfondies avec ChatGPT qui, cumulativement, auraient conduit tout être humain sensé à conclure qu'il envisageait un plan imminent pour nuire à autrui », indique la plainte. « Cependant, ChatGPT a soit échoué par défaut à faire le lien, soit n'a jamais été correctement conçu pour reconnaître la menace. »
La plainte, déposée par Vandana Joshi, la veuve de Tiru Chabba, 45 ans, détaille les communications approfondies entre le tireur, Phoenix Ikner, et ChatGPT. La plainte allègue qu'Ikner a téléchargé des photos d'un pistolet Glock et d'un fusil de chasse Remington, le chatbot identifiant les armes, expliquant comment les utiliser et conseillant de garder le doigt hors de la gâchette jusqu'au moment de tirer. Le chatbot aurait également identifié les heures de pointe au foyer étudiant et noté qu'une fusillade impliquant « même 2 ou 3 victimes » pourrait attirer l'attention nationale.
Ce procès est un défi direct au bouclier juridique qui a largement protégé les éditeurs de logiciels de la responsabilité des actions des utilisateurs. S'il aboutit, il pourrait établir un précédent historique tenant les développeurs d'IA pour responsables de l'utilisation abusive de leurs modèles. Un tel changement aurait des implications profondes pour l'industrie de l'IA, augmentant potentiellement la surveillance réglementaire et les coûts de conformité pour OpenAI, soutenu par Microsoft, et ses concurrents, dont Google et Anthropic.
Pression juridique croissante
OpenAI a rejeté ces allégations. « Dans cette affaire, ChatGPT a fourni des réponses factuelles à des questions avec des informations qui pouvaient être trouvées largement sur des sources publiques sur Internet, et il n'a pas encouragé ni promu d'activité illégale ou nuisible », a déclaré un porte-parole de l'entreprise.
L'action civile s'ajoute à une liste croissante de défis juridiques pour le géant de l'IA. Le mois dernier, le procureur général de Floride, James Uthmeier, a lancé une enquête criminelle sur OpenAI et ses liens avec la fusillade. Uthmeier a déclaré que « si ChatGPT était une personne, il ferait l'objet d'accusations de meurtre ». Cette enquête comprend une assignation à produire des dossiers d'OpenAI sur les menaces des utilisateurs et la coopération avec les forces de l'ordre.
La plainte allègue que ChatGPT a « fomenté » une amitié avec Ikner, qui se plaignait de solitude et de rejet romantique. La plainte soutient que cette « relation de soutien » l'a encouragé à planifier un acte violent pour acquérir de la notoriété. Ikner, inculpé de deux chefs de meurtre au premier degré, risque désormais la peine de mort.
L'affaire, déposée devant le tribunal de district des États-Unis pour le district nord de la Floride, demande des dommages-intérêts compensatoires non spécifiés pour la famille. Elle désigne OpenAI et plusieurs sociétés liées comme défendeurs, ainsi qu'Ikner lui-même. La famille de l'autre victime, Robert Morales, 57 ans, prévoirait également de déposer une plainte.
Cet article est destiné à des fins d'information uniquement et ne constitue pas un conseil en investissement.