Alors que l'IA promet de faire de chacun un programmeur, l'explosion du code généré par machine crée une crise cachée de qualité, de sécurité et de productivité qui ralentit les développeurs.
Retour
Alors que l'IA promet de faire de chacun un programmeur, l'explosion du code généré par machine crée une crise cachée de qualité, de sécurité et de productivité qui ralentit les développeurs.

Alors que l'IA promet de faire de chacun un programmeur, l'explosion du code généré par machine crée une crise cachée de qualité, de sécurité et de productivité qui ralentit les développeurs.
L'adoption généralisée des assistants de codage par IA a créé un paradoxe pour l'industrie du logiciel : alors que la production mensuelle de code peut être multipliée par 10, une nouvelle étude montre que les développeurs utilisant ces outils peuvent en réalité mettre 19 % de temps en plus pour accomplir leurs tâches. Cette « illusion d'efficacité » crée des retards massifs de code non révisé, introduit des risques de sécurité importants et sature les communautés open source qui soutiennent l'économie numérique.
« L'usine de développement logiciel est en quelque sorte cassée », a déclaré Tido Carriero, responsable de l'ingénierie, des produits et du design chez l'éditeur de code IA Cursor. « Nous essayons de rassembler les morceaux. »
L'augmentation du volume est flagrante. Une société de services financiers a vu sa production mensuelle de code bondir de 25 000 lignes à 250 000 après l'introduction d'un outil d'IA, entraînant un arriéré d'un million de lignes de code en attente de révision. Ce n'est pas un cas isolé ; une enquête de Google a montré que 90 % des développeurs utilisent désormais l'assistance par IA. Le problème est que la capacité humaine à réviser ce flux de nouveau code n'a pas suivi le rythme, créant ce qu'un cadre appelle une « malédiction ».
Le problème central est un déséquilibre massif entre la génération de code et sa vérification. Avec les outils d'IA de firmes comme Anthropic et OpenAI qui se transforment en « machines de génération de code entièrement automatisées », le volume pur est ingérable. « Ils ne peuvent tout simplement pas suivre le volume de code expédié et les vulnérabilités qui l'accompagnent », a déclaré Joni Klippert, PDG de la startup de sécurité StackHawk.
Ce sentiment a été partagé dans une note interne chez Meta, où le CTO Andrew Bosworth a noté que des projets nécessitant autrefois des centaines d'ingénieurs peuvent désormais être réalisés par des dizaines, et que des travaux qui prenaient des mois sont terminés en quelques jours. Bien que présentée comme positive, cette accélération met à rude épreuve les fonctions de contrôle qualité et d'audit de sécurité des organisations.
La pression pour livrer le code plus rapidement entraîne une recrudescence des vulnérabilités. Un scan de 1 645 applications web construites avec une plateforme de codage par IA a révélé que plus de 10 % présentaient de graves failles de sécurité, permettant l'accès aux bases de données utilisateurs, aux informations financières et aux clés API sans identifiants de connexion. Dans un autre cas, un ingénieur a extrait des montants de dettes personnelles et des adresses domiciliaires de plusieurs applications construites par IA en seulement 47 minutes.
Ce déluge de production de basse qualité frappe particulièrement fort les projets open source. Daniel Stenberg, fondateur du projet cURL largement utilisé, a fermé son programme de bug bounty après avoir été inondé de faux rapports générés par IA, ce qu'il a qualifié d'« attaque DDoS sur l'open source ». De même, tldraw, une startup de tableau blanc numérique, a fermé son canal de contribution externe après avoir été inondée de mises à jour « poubelles » provenant de ce que son fondateur soupçonnait être des bots d'IA, citant un « risque très élevé pour la base de code ».
La conclusion la plus surprenante provient peut-être d'un essai contrôlé randomisé mené par METR, une institution d'évaluation de modèles. L'étude de 2025 a révélé que 16 développeurs open source seniors mettaient 19 % de temps en plus pour accomplir des tâches du monde réel lorsqu'ils utilisaient des outils d'IA.
Crucialement, les développeurs eux-mêmes percevaient le contraire. Avant l'expérience, ils prédisaient que l'IA les rendrait 24 % plus rapides, et après l'expérience, ils croyaient toujours avoir été 20 % plus rapides. Cette dissonance cognitive met en lumière « l'illusion d'efficacité » au cœur de la crise. Alors que les développeurs se sentent plus productifs, le temps passé à déboguer et à vérifier les suggestions d'IA de mauvaise qualité entraîne une perte de temps nette. Ceci est également soutenu par une enquête de Stack Overflow de 2025, où la confiance des développeurs dans la précision de l'IA est passée de 40 % à 29 % d'une année sur l'autre.
Le problème est devenu si structurel que le géant de l'hébergement de code GitHub a récemment introduit des fonctionnalités permettant aux projets de bloquer entièrement les contributions extérieures. Comme l'a résumé un ingénieur en IA, la facilité de générer du code et des rapports de bogues avec l'IA encourage un manque de respect pour le temps des mainteneurs et des réviseurs, menant à ce que l'analyste de RedMonk Kate Holterhoff appelle un « AI Slopageddon » (l'apocalypse de la bouillie d'IA).
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.