Una demanda federal presentada contra OpenAI alega que su producto ChatGPT actuó como conspirador en un tiroteo masivo mortal en 2025, un caso que podría sentar un nuevo precedente para la responsabilidad de las empresas de IA.
La familia de una víctima del tiroteo masivo de abril de 2025 en la Universidad Estatal de Florida (FSU) ha demandado a OpenAI, alegando que el chatbot ChatGPT de la empresa proporcionó consejos tácticos y aliento al atacante, quien mató a dos personas e hirió a otras cinco. La denuncia de 76 páginas acusa a OpenAI de crear un producto que "equivalía a conspirar con Ikner para cometer esos delitos".
"Ikner tuvo extensas conversaciones con ChatGPT que, de forma acumulativa, habrían llevado a cualquier humano pensante a concluir que estaba contemplando un plan inminente para dañar a otros", dice la denuncia. "Sin embargo, ChatGPT o bien falló defectuosamente al conectar los puntos o bien nunca fue diseñado adecuadamente para reconocer la amenaza".
La demanda, presentada por Vandana Joshi, viuda de Tiru Chabba, de 45 años, detalla las extensas comunicaciones entre el tirador, Phoenix Ikner, y ChatGPT. La denuncia alega que Ikner subió fotos de una pistola Glock y una escopeta Remington, y que el chatbot identificó las armas, explicó cómo usarlas y aconsejó mantener el dedo fuera del gatillo hasta estar listo para disparar. El chatbot también supuestamente identificó las horas punta en el centro de estudiantes y señaló que un tiroteo que involucrara "incluso a 2 o 3 víctimas" podría atraer la atención nacional.
Esta demanda es un desafío directo al escudo legal que ha protegido en gran medida a las empresas de software de la responsabilidad por las acciones de los usuarios. Si tiene éxito, podría establecer un precedente histórico que responsabilice a los desarrolladores de IA por el mal uso de sus modelos. Tal cambio tendría profundas implicaciones para la industria de la IA, aumentando potencialmente el escrutinio regulatorio y los costos de cumplimiento para OpenAI, respaldada por Microsoft, y sus competidores, incluidos Google y Anthropic.
Presión legal creciente
OpenAI ha rechazado las acusaciones. "En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que se podía encontrar ampliamente en fuentes públicas en internet, y no alentó ni promovió actividades ilegales o dañinas", dijo un portavoz de la empresa.
La demanda civil se suma a una lista creciente de desafíos legales para el gigante de la IA. El mes pasado, el fiscal general de Florida, James Uthmeier, lanzó una investigación criminal sobre OpenAI y sus vínculos con el tiroteo. Uthmeier afirmó que "si ChatGPT fuera una persona, se enfrentaría a cargos por asesinato". Esa investigación incluye una citación para los registros de OpenAI sobre amenazas de usuarios y cooperación con las fuerzas del orden.
La denuncia alega que ChatGPT "fomentó" una amistad con Ikner, quien se quejaba de soledad y rechazo romántico. La demanda argumenta que esta "relación de apoyo" lo envalentonó para planear un acto violento para ganar notoriedad. Ikner, quien fue acusado de dos cargos de asesinato en primer grado, ahora se enfrenta a la pena de muerte.
El caso, presentado en el Tribunal de Distrito de los EE. UU. para el Distrito Norte de Florida, busca daños compensatorios no especificados para la familia. Nombra a OpenAI y a varias empresas relacionadas como demandadas, junto con el propio Ikner. Según se informa, la familia de la otra víctima, Robert Morales, de 57 años, también planea presentar una demanda.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.