xAI demandado por más de 150.000 dólares por infracción en el caso de los 'deepfakes' de adolescentes
La empresa de inteligencia artificial de Elon Musk, xAI, se enfrenta a un importante desafío legal después de que el lunes se presentara una demanda colectiva propuesta en un tribunal federal de California. La demanda, interpuesta por tres menores de Tennessee, alega que el modelo Grok AI de la empresa fue utilizado para crear y distribuir material de abuso sexual infantil (CSAM) en forma de 'deepfake'. Los demandantes acusan a xAI de diseñar a sabiendas su producto sin las salvaguardas estándar de la industria y de beneficiarse del contenido ilegal resultante. Solicitan daños y perjuicios de al menos 150.000 dólares por infracción en virtud de la Ley de Masha, además de daños punitivos y una orden judicial permanente.
La denuncia detalla cómo fotografías reales de los menores, incluidas imágenes de graduación y de playa, fueron supuestamente manipuladas para convertirse en imágenes y vídeos explícitos. Este contenido, según se informa, circuló posteriormente en plataformas como Discord. El expediente señala que una investigación criminal en Tennessee llevó al arresto de un sospechoso en diciembre de 2025 en relación con la creación y distribución del material.
Grok supuestamente produjo 23.338 imágenes ilícitas en 12 días
El argumento central de la demanda es que xAI eludió deliberadamente las medidas de seguridad ampliamente adoptadas por otros laboratorios de IA líderes. «Casi todas las empresas que crean, comercializan y venden IA reconocieron los peligros de una herramienta así y optaron por establecer salvaguardas estándar de la industria... xAI no lo hizo», afirma la denuncia. Esta afirmación contrasta marcadamente con las declaraciones públicas de Musk en enero, cuando publicó en X que «no tenía conocimiento de ninguna imagen de menores desnudos generada por Grok. Literalmente cero», y afirmó que el modelo está construido para «obedecer las leyes».
Sin embargo, los datos citados en la demanda por el Center for Countering Digital Hate (Centro para Contrarrestar el Odio Digital) pintan un panorama diferente. La organización estimó que Grok produjo aproximadamente 23.338 imágenes sexualizadas de niños entre el 29 de diciembre de 2025 y el 9 de enero de 2026, lo que equivale a una tasa de una imagen cada 41 segundos. Estos datos sugieren un fallo sistémico que podría socavar la defensa de xAI y exponer a la empresa a una responsabilidad significativa.
La creciente vigilancia legal plantea un riesgo de gobernanza para el imperio de Musk
Esta demanda no es un evento aislado, sino parte de un patrón de creciente presión legal y regulatoria sobre xAI. En enero, la empresa fue demandada por otro individuo por acusaciones de que Grok generó 'deepfakes' sexualmente explícitos. Además, el modelo de IA está siendo investigado por reguladores en la Unión Europea, el Reino Unido, Francia, Irlanda y Australia por preocupaciones similares relacionadas con el abuso de imágenes de IA.
Para los inversores, las crecientes batallas legales crean una importante carga financiera y de reputación para xAI, una empresa de capital privado. La controversia también amplifica las preocupaciones de gobernanza más amplias para las empresas cotizadas de Musk, sobre todo Tesla (TSLA). Los problemas legales persistentes vinculados a xAI podrían ser percibidos por el mercado como una distracción para su liderazgo y un riesgo potencial para la reputación de la marca en toda la cartera corporativa de Musk.