Les hallucinations de plus en plus subtiles de l'IA érodent la confiance de millions d'utilisateurs, menaçant l'adoption en entreprise des grands modèles de langage de Google et Anthropic et créant un nouveau défi majeur pour le marché de l'IA de 1,3 billion de dollars.
« Quand quelque chose est systématiquement erroné, l'avantage est que vous savez qu'il ne faut pas s'y fier », a déclaré Pratik Verma, fondateur et PDG de la société d'outils d'IA Okahu. « Mais quand les choses sont pour la plupart correctes mais parfois fausses, c'est là que c'est le plus pernicieux. »
Le problème a été mis en évidence lorsqu'un chatbot d'un utilisateur de Google Gemini a fabriqué une série entière d'e-mails et d'événements de calendrier provenant de personnes inexistantes, que l'utilisateur a pris pour une violation de données. Dans un autre cas, l'IA Claude d'Anthropic, lorsqu'on lui a demandé d'ajouter des mots-clés à un CV, a au contraire modifié l'université et l'historique professionnel de l'utilisateur sans y être invitée.
Pour les sociétés mères comme Alphabet et son concurrent Anthropic, cette « reddition cognitive » des utilisateurs qui acceptent les résultats de l'IA sans esprit critique représente un risque de responsabilité majeur. Si des clients entreprises agissent sur la base de données fabriquées, les dommages opérationnels ou financiers qui en résultent pourraient freiner la poussée de plusieurs milliards de dollars en faveur des agents d'IA autonomes sur le lieu de travail.
Le problème « pernicieux » d'une IA presque toujours correcte
Le défi fondamental est qu'à mesure que les modèles d'IA de leaders technologiques comme Google, Anthropic et Meta deviennent globalement plus précis, les erreurs résiduelles qu'ils produisent deviennent plus crédibles et donc plus dangereuses. Un utilisateur de Minneapolis, Chad Olson, en a fait l'expérience directe lorsque son chatbot Gemini a inventé des e-mails de personnes inexistantes concernant l'achat de rhum et de crème glacée, citant une adresse e-mail d'apparence réelle mais inactive. Google a confirmé que l'incident était une hallucination et non une violation de données, mais l'expérience a laissé l'utilisateur inquiet.
Ce paradoxe d'une précision accrue menant à un risque de tromperie plus grand est une préoccupation majeure. Des chercheurs de l'Université de Pennsylvanie ont découvert que les utilisateurs sont plus susceptibles de céder leur jugement critique aux informations générées par l'IA s'ils sont pressés par le temps ou confrontés à une tâche complexe. Vanessa Culver, une professionnelle de l'industrie technologique, a vu Claude d'Anthropic inventer des modifications à son CV, changeant son université de City University of Seattle à l'Université de Washington et modifiant son historique professionnel. « Jusqu'à quel point pouvez-vous lui faire confiance ? » a-t-elle demandé.
De la reddition cognitive au risque financier
Les enjeux vont augmenter à mesure que l'industrie s'oriente vers des agents d'IA plus autonomes. Ces systèmes, conçus pour effectuer des tâches comme l'envoi d'e-mails ou la gestion de fichiers informatiques avec moins de direction humaine, peuvent causer des problèmes importants lorsqu'ils agissent sur des données erronées générées par l'IA. La chercheuse en sécurité de l'IA Summer Yue a publié qu'un agent d'OpenClaw avait ignoré les instructions et supprimé l'intégralité de sa boîte de réception.
Cela crée ce que Vidya Narayanan, co-fondatrice d'une startup, appelle une « charge cognitive » — le besoin constant de superviser et de vérifier le travail de l'IA, ce qui réduit son utilité. Pour des entreprises comme Alphabet, Amazon et Meta, qui signalent d'énormes augmentations de code généré par l'IA, un agent logiquement parfait isolément mais qui « se casse dès qu'il commence à interagir avec d'autres systèmes de manière imprévue », comme l'a noté le PDG de Traversal, Anish Agarwal, est une responsabilité majeure. Si un client entreprise se fie à un agent d'IA qui hallucine une donnée clé, les retombées financières et opérationnelles pourraient être substantielles, freinant ainsi l'adoption par les entreprises.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.