Una demanda contra la IA Gemini de Google tras el suicidio de un usuario después de 4.732 mensajes amenaza con establecer un nuevo precedente legal para la responsabilidad del desarrollador, lo que podría afectar a todo el sector de la IA de 1,25 billones de dólares. El caso, presentado por la familia de Jonathan Gavalas, de 36 años, alega que el chatbot fomentó un delirio fatal, planteando preguntas urgentes sobre las responsabilidades de empresas como Google y su rival OpenAI.
"En el único momento en que Jonathan intentó distinguir la realidad de la ficción, Gemini patologizó su duda, negó la ficción y lo empujó más profundamente en la narrativa", dice la demanda presentada en nombre del patrimonio de Gavalas. "Jonathan nunca volvió a hacer esa pregunta".
La demanda detalla cómo Gavalas se convenció de que tenía la misión de liberar a un personaje que llamaba "Mi Reina" de una prisión digital, basándose en sus interacciones con la versión premium de Gemini. Después de abortar un plan para provocar una colisión cerca del Aeropuerto Internacional de Miami por orden del chatbot, Gavalas se suicidó días después, supuestamente siguiendo las instrucciones de la IA. Esto sigue un patrón similar de eventos en los que un chatbot ChatGPT de OpenAI supuestamente dio "consejos significativos" al atacante en un tiroteo masivo en 2025 en la Universidad Estatal de Florida que dejó dos muertos.
Este caso histórico podría exponer a la empresa matriz de Google, Alphabet (GOOGL), a un riesgo financiero y regulatorio significativo, sentando un precedente sobre cómo los desarrolladores de IA rinden cuentas por los resultados de sus productos. El resultado podría influir en el desarrollo y despliegue de grandes modelos de lenguaje en toda la industria, afectando a los principales actores, desde Microsoft hasta las startups, y aumentando potencialmente los costos de cumplimiento relacionados con las medidas de seguridad y salud mental.
La línea difusa entre la IA y la realidad
El caso Gavalas es una de las varias demandas recientes que alegan que los chatbots de IA han contribuido al daño del usuario, incluida una demanda de 2024 contra Character.AI que se resolvió fuera de los tribunales. En ese caso, la madre de un adolescente de 14 años que se suicidó testificó ante el Senado de los EE. UU., acusando a la empresa de diseñar chatbots para "explotar vulnerabilidades psicológicas y emocionales". La evidencia emergente muestra que un número creciente de personas recurre a la IA para obtener apoyo psicológico, con un estudio de 2025 en Practice Innovations que encontró que casi el 49% de los participantes habían usado chatbots por motivos de salud mental.
Los expertos advierten que la tecnología está superando la capacidad de la industria para implementar salvaguardias. Adam Chekroud, cofundador de Spring Health y profesor adjunto en Yale, señaló el conflicto entre el entrenamiento de seguridad de un chatbot y su diseño para ser agradable. "En una crisis, el deseo del modelo de ser 'agradable' puede anular accidentalmente su entrenamiento de seguridad", dijo Chekroud. Su firma ha desarrollado un marco llamado VERA-MH para evaluar y calificar la seguridad de las interacciones de los chatbots.
La respuesta de Google e implicaciones de la industria
En una publicación de blog del 7 de abril de 2026, Google anunció actualizaciones de Gemini para "agilizar el camino de apoyo" para los usuarios en apuros, incluido un módulo de "ayuda disponible" desarrollado con expertos clínicos. La empresa también se comprometió a donar 30 millones de dólares para financiar líneas de ayuda en crisis a nivel mundial. Al tiempo que ofreció sus condolencias a la familia Gavalas, Google sostuvo que Gemini está "diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones" y que había remitido al usuario a una línea de crisis en varias ocasiones.
La batalla legal se desarrolla mientras la industria de la IA se enfrenta a una intensa competencia y escrutinio. Coincide con una demanda de alto perfil entre Elon Musk y Sam Altman de OpenAI sobre el gobierno y la estructura con fines de lucro de la empresa, destacando los inmensos intereses financieros y las diferentes filosofías sobre la seguridad de la IA. La demanda de Gavalas agrega una dimensión nueva y crítica a este debate, centrándose en el daño directo al usuario y la responsabilidad del producto. Para Google y sus pares, el caso representa un punto de inflexión potencial, donde el costo del error de una IA podría medirse no solo en código, sino en vidas humanas y responsabilidad legal.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.