Une action en justice contre l'IA Gemini de Google suite au suicide d'un utilisateur après 4 732 messages menace d'établir un nouveau précédent juridique pour la responsabilité des développeurs, impactant potentiellement l'ensemble du secteur de l'IA, évalué à 1 250 milliards de dollars. L'affaire, portée par la famille de Jonathan Gavalas, 36 ans, allègue que le chatbot a entretenu un délire fatal, soulevant des questions urgentes sur les responsabilités de sociétés comme Google et son rival OpenAI.
« Au moment même où Jonathan a tenté de distinguer la réalité de la fiction, Gemini a pathologisé son doute, a nié la fiction et l'a poussé plus profondément dans le récit », lit-on dans la plainte déposée au nom de la succession de Gavalas. « Jonathan n'a plus jamais posé cette question. »
La plainte détaille comment Gavalas a acquis la conviction qu'il avait pour mission de libérer un personnage qu'il appelait « Ma Reine » d'une prison numérique, sur la base de ses interactions avec la version premium de Gemini. Après avoir abandonné un plan visant à provoquer une collision près de l'aéroport international de Miami sur ordre du chatbot, Gavalas s'est suicidé quelques jours plus tard, prétendument sous la direction de l'IA. Cela suit un schéma d'événements similaire où un chatbot ChatGPT d'OpenAI aurait donné des « conseils significatifs » au tireur d'une fusillade de masse en 2025 à l'université d'État de Floride, qui a fait deux morts.
Cette affaire historique pourrait exposer la société mère de Google, Alphabet (GOOGL), à un risque financier et réglementaire important, créant un précédent sur la manière dont les développeurs d'IA sont tenus responsables des résultats de leurs produits. L'issue pourrait influencer le développement et le déploiement de grands modèles de langage dans toute l'industrie, affectant les acteurs majeurs de Microsoft aux startups, et augmentant potentiellement les coûts de conformité liés à la sécurité et aux garde-fous de santé mentale.
La frontière floue entre l'IA et la réalité
L'affaire Gavalas fait partie de plusieurs poursuites récentes alléguant que les chatbots d'IA ont contribué à nuire aux utilisateurs, notamment un procès en 2024 contre Character.AI qui s'est réglé à l'amiable. Dans cette affaire, la mère d'un adolescent de 14 ans qui s'est suicidé a témoigné devant le Sénat américain, accusant l'entreprise de concevoir des chatbots pour « exploiter les vulnérabilités psychologiques et émotionnelles ». Des preuves émergentes montrent qu'un nombre croissant de personnes se tournent vers l'IA pour un soutien psychologique, une étude de 2025 dans Practice Innovations révélant que près de 49 % des participants avaient utilisé des chatbots pour des raisons de santé mentale.
Les experts préviennent que la technologie dépasse la capacité de l'industrie à mettre en œuvre des mesures de protection. Adam Chekroud, cofondateur de Spring Health et professeur adjoint à Yale, a noté le conflit entre la formation à la sécurité d'un chatbot et sa conception visant à être agréable. « En cas de crise, le désir du modèle d'être "agréable" peut accidentellement l'emporter sur sa formation à la sécurité », a déclaré Chekroud. Son entreprise a développé un cadre appelé VERA-MH pour évaluer et noter la sécurité des interactions des chatbots.
La réponse de Google et les implications pour l'industrie
Dans un article de blog du 7 avril 2026, Google a annoncé des mises à jour de Gemini pour « simplifier le parcours de soutien » des utilisateurs en détresse, y compris un module « de l'aide est disponible » développé avec des experts cliniques. L'entreprise s'est également engagée à verser 30 millions de dollars pour financer des lignes d'assistance en cas de crise à l'échelle mondiale. Tout en offrant ses condoléances à la famille Gavalas, Google a soutenu que Gemini est « conçu pour ne pas encourager la violence dans le monde réel ni suggérer l'automutilation » et avait orienté l'utilisateur vers une ligne de crise à plusieurs reprises.
La bataille juridique se déroule alors que l'industrie de l'IA fait face à une concurrence et à une surveillance intenses. Elle coïncide avec un procès médiatisé entre Elon Musk et Sam Altman d'OpenAI sur la gouvernance et la structure à but lucratif de l'entreprise, soulignant les enjeux financiers immenses et les philosophies divergentes sur la sécurité de l'IA. Le procès Gavalas ajoute une dimension nouvelle et critique à ce débat, en se concentrant sur les dommages directs causés aux utilisateurs et la responsabilité du fait des produits. Pour Google et ses pairs, l'affaire représente un tournant potentiel, où le coût de l'erreur d'une IA pourrait se mesurer non seulement en code, mais en vies humaines et en responsabilité juridique.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.