xAI poursuivi pour plus de 150 000 dollars par infraction dans l'affaire des deepfakes d'adolescents
L'entreprise d'intelligence artificielle d'Elon Musk, xAI, fait face à un défi juridique majeur après le dépôt d'une proposition d'action en justice collective devant un tribunal fédéral californien lundi. La plainte, déposée par trois mineurs du Tennessee, allègue que le modèle Grok AI de la société a été utilisé pour créer et distribuer du matériel d'abus sexuel sur enfants (CSAM) sous forme de deepfake. Les plaignants accusent xAI d'avoir délibérément conçu son produit sans les garde-fous conformes aux normes de l'industrie et d'avoir tiré profit du contenu illégal qui en a résulté. Ils réclament des dommages et intérêts d'au moins 150 000 dollars par infraction en vertu de la loi de Masha, ainsi que des dommages punitifs et une injonction permanente.
La plainte détaille comment des photographies réelles des mineurs, y compris des photos de bal de fin d'année et de plage, auraient été manipulées pour devenir des images et des vidéos explicites. Ce contenu aurait ensuite été diffusé sur des plateformes comme Discord. Le dossier indique qu'une enquête criminelle dans le Tennessee a conduit à l'arrestation d'un suspect en décembre 2025 en lien avec la création et la distribution de ce matériel.
Grok aurait produit 23 338 images illicites en 12 jours
L'argument central de la plainte est que xAI a délibérément évité les mesures de sécurité largement adoptées par d'autres laboratoires d'IA de premier plan. « Presque toutes les entreprises créant, commercialisant et vendant des IA ont reconnu les dangers d'un tel outil et ont choisi de mettre en place des garde-fous conformes aux normes de l'industrie... xAI ne l'a pas fait », indique la plainte. Cette affirmation contraste fortement avec les déclarations publiques de Musk en janvier, lorsqu'il a posté sur X qu'il n'était « au courant d'aucune image d'enfant mineur nue générée par Grok. Littéralement zéro », et a affirmé que le modèle était conçu pour « obéir aux lois ».
Cependant, les données citées dans la plainte par le Center for Countering Digital Hate (Centre de lutte contre la haine numérique) brossent un tableau différent. L'organisation a estimé que Grok a produit environ 23 338 images sexualisées d'enfants entre le 29 décembre 2025 et le 9 janvier 2026, ce qui correspond à un taux d'une image toutes les 41 secondes. Ces données suggèrent une défaillance systémique qui pourrait saper la défense de xAI et exposer l'entreprise à une responsabilité significative.
Une surveillance juridique croissante pose un risque de gouvernance pour l'empire de Musk
Cette action en justice n'est pas un événement isolé mais fait partie d'un ensemble de pressions juridiques et réglementaires croissantes sur xAI. En janvier, l'entreprise a été poursuivie par une autre personne pour des allégations selon lesquelles Grok aurait généré des deepfakes sexuellement explicites. En outre, le modèle d'IA ferait l'objet d'une enquête de la part des régulateurs de l'Union européenne, du Royaume-Uni, de la France, de l'Irlande et de l'Australie concernant des préoccupations similaires liées à l'abus d'images par l'IA.
Pour les investisseurs, les batailles juridiques croissantes créent un fardeau financier et de réputation important pour xAI, une entreprise privée. La controverse amplifie également les préoccupations plus larges en matière de gouvernance pour les entreprises cotées en bourse de Musk, notamment Tesla (TSLA). Les problèmes juridiques persistants liés à xAI pourraient être perçus par le marché comme une distraction pour sa direction et un risque potentiel pour la réputation de la marque à travers l'ensemble du portefeuille d'entreprises de Musk.