Un nombre croissant d'écrivains professionnels modifient délibérément leur prose pour paraître plus humains et éviter les accusations d'utilisation de l'intelligence artificielle, un changement qui menace de remodeler subtilement la communication en ligne et la création de contenu. Ce test de Turing inversé implique l'utilisation d'un langage « agressivement décontracté », de fautes de frappe intentionnelles et l'évitement de phrases trop polies qui sont devenues la marque de fabrique des grands modèles de langage (LLM). La tendance survient alors que les logiciels de détection d'IA se généralisent et que le volume de contenu généré par machine explose, une analyse récente estimant que les articles écrits par l'IA sont désormais plus nombreux que ceux produits par des humains.
« C'est comme le nouveau maccarthysme », a déclaré Sarah Suzuki Harvard, une conceptrice-rédactrice de 32 ans à Brooklyn qui a commencé à utiliser un langage plus décontracté pour prouver sa bonne foi humaine. « Les gens exigent la preuve de quelque chose qui ne peut pas être prouvé. »
La volonté de paraître plus humain a conduit les rédacteurs à éviter les indices courants d'IA tels que l'utilisation fréquente de tirets cadratins, les listes de trois et les phrases comme « ce n'est pas x, mais y ». Certains, comme Garrett Marcy, coordinateur de comptes financiers, admettent utiliser l'IA pour la rédaction mais éditent ensuite lourdement, réinsérant même leurs propres phrases interminables ou fautes de frappe pour retrouver leur voix. Des logiciels comme Writehuman, une startup qui édite les textes d'IA pour les rendre plus humains, ont émergé pour capitaliser sur cette tendance, notant que son analyse montre que les LLM actuels abusent d'expressions comme « plutôt que » (rather than) et « essentiel pour » (essential for).
Ce changement stylistique a un impact direct minime sur les marchés financiers mais comporte des implications significatives pour les industries de la création de contenu et des médias de 250 milliards de dollars. Alors que la frontière entre le texte humain et le texte généré par machine s'estompe, la valeur perçue de l'authenticité augmente, créant potentiellement une prime pour le contenu vérifiablement humain. Cela pourrait affecter tout, des tarifs de rédaction indépendante à la crédibilité perçue des communications d'entreprise et des supports marketing, forçant les entreprises à naviguer dans un paysage où paraître trop parfait peut être un handicap.
La peur d'être faussement accusé d'utiliser l'IA est l'un des principaux moteurs de cette tendance. Des écrivains ont vu leur carrière endommagée par de telles allégations, comme dans le cas du livre « Shy Girl », qui a été retiré par l'éditeur Hachette suite à des affirmations selon lesquelles il était en partie composé par IA. Cela a conduit à un climat de suspicion où, comme l'a noté un écrivain, même la lecture de textes historiques avec des tirets cadratins peut déclencher une vérification momentanée « est-ce de l'IA ? ».
L'ironie est que les modèles d'IA sont formés sur de vastes quantités d'écrits humains, apprenant à émuler la clarté et le style loués dans des guides comme « The Elements of Style » de Strunk & White. Pourtant, c'est ce polissage même qui peut maintenant être un indice. En réponse, certains ripostent par l'idiosyncrasie. Ryan Johnson, qui gère un blog pour les jeunes familles, a arrêté d'utiliser ChatGPT pour les brouillons parce qu'il estimait que cela « diluait la soupe » et dépouillait son écriture de sa voix distincte, qui inclut des citations obscures de la série « The Office ».
La course aux armements dans le contenu IA
Le phénomène reflète une « course aux armements croissante » plus large entre ceux qui utilisent l'IA et ceux qui essaient de la détecter, comme décrit par Richard She, biologiste des cellules souches à l'université technologique de Nanyang. Des études commencent à quantifier l'ampleur de l'empreinte de l'IA. Une analyse récente de près de 7 000 résumés de manuscrits soumis à la revue Organization Science a révélé que les soumissions contenant plus de 70 % de texte généré par l'IA avaient plus que doublé en février de cette année par rapport au début de 2024. Une autre étude de prépublication examinant plus de 124 000 manuscrits sur arXiv a révélé que les prépublications de revues en informatique contenant du texte généré par l'IA ont bondi d'environ 7 % en 2023 à 43 % en 2025.
Cette prolifération ne se limite pas au monde universitaire. En Chine, l'adoption massive d'outils d'IA pour les tâches quotidiennes en a fait un vaste terrain d'essai, avec plus de 600 millions de personnes utilisant l'IA générative en décembre — une augmentation de 142 % sur un an, selon le China Internet Network Information Center. Cette utilisation généralisée, de la réservation de voyages à la génération de sites Web d'entreprises, réduit rapidement l'écart de performance entre les modèles d'IA américains et chinois.
Pour les investisseurs, l'essentiel n'est pas d'éviter l'IA, mais de comprendre son rôle évolutif et la réaction du marché à son égard. Alors que le capital-risqueur Marc Andreessen défend une IA plus « provocante et agressive », libérée des contraintes « woke », le marché semble pour l'instant récompenser un autre type d'authenticité. L'essor des outils d'« humanisation » et l'effort conscient des écrivains pour injecter des « défauts » dans leur travail suggèrent le développement d'un marché pour des services capables soit de vérifier la paternité humaine, soit d'en imiter les imperfections de manière convaincante. Cette dynamique pourrait influencer l'investissement dans les entreprises de détection d'IA, les plateformes de marketing de contenu et l'économie plus large des créateurs, où la définition de la « valeur » est activement renégociée.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.