Les éditeurs perdent 60 % de leur trafic alors que Google se tourne vers l'AI
Le déploiement des aperçus IA de Google a provoqué un effondrement spectaculaire du trafic de référence pour les créateurs de contenu, réorganisant fondamentalement l'économie de la recherche. De nouvelles données révèlent que les petits éditeurs ont le plus souffert, perdant 60 % de leur trafic de référence de recherche au cours des deux dernières années. Les éditeurs de taille moyenne ont vu une baisse de 47 %, tandis que même les grands éditeurs ont connu une baisse de 22 %. Cette évaporation de trafic est une conséquence directe de l'IA de Google qui résume les informations directement sur la page de résultats, réduisant le besoin pour les utilisateurs de cliquer sur des sites web externes. Les données provenant d'Allemagne montrent que lorsqu'un aperçu IA est présent, le taux de clics pour le premier résultat de recherche organique chute de 27,7 % à seulement 11 % — une réduction de 59 % des clics.
Ce pivot algorithmique loin des sites web traditionnels a créé un nouveau faiseur de rois : Reddit. Les modèles d'IA de Google privilégient désormais fortement le contenu des forums pour fournir des perspectives "authentiques" de première main, ce qui a entraîné une visibilité de Reddit dans les résultats de recherche qui a presque triplé entre août 2023 et avril 2024. Cela a positionné Reddit comme une source de données critique pour la prochaine génération de recherche, transférant la valeur des producteurs de contenu original vers les agrégateurs de contenu.
Reddit monétise des données compromises via des accords de licence de 203 millions de dollars
Capitalisant sur son importance stratégique retrouvée, Reddit a signé des accords de licence de données totalisant 203 millions de dollars, y compris un accord historique de 60 millions de dollars par an avec Google. La société présente sa vaste archive de discussions d'utilisateurs comme une "conversation humaine authentique", une ressource soi-disant inestimable pour entraîner les grands modèles linguistiques (LLM). Cependant, ce modèle commercial lucratif repose sur une fondation précaire. Le PDG de Reddit, Steve Huffman, a admis en juin 2025 que la plateforme est dans une "course aux armements" contre le spam généré par l'IA, une bataille qu'elle semble perdre. Rien qu'au premier semestre 2025, Reddit a supprimé plus de 40 millions de messages indésirables.
Le problème n'est pas seulement le spam, mais aussi la manipulation sophistiquée. Un écosystème commercial entier a émergé avec des outils comme "ReplyGuy" et "Redreach" qui permettent aux spécialistes du marketing d'injecter automatiquement des mentions de marque et des recommandations de produits dans les conversations Reddit. Ces services annoncent ouvertement leur capacité à faire figurer des clients dans les aperçus IA de Google, transformant efficacement Reddit en un vecteur pour manipuler l'IA de Google à l'échelle industrielle. Cela soulève de sérieuses questions sur l'authenticité des données que Google paie un prix élevé pour licencier.
L'authenticité s'effiloche alors que les bots surpassent les humains
L'affirmation de fournir une "conversation humaine authentique" est systématiquement démentie. Une étude de l'Université Cornell a déployé des bots IA sur le subreddit r/changemyview et a constaté qu'ils étaient trois à six fois plus persuasifs que les commentateurs humains. Sur quatre mois et un millier de commentaires, pas un seul utilisateur ou modérateur n'a détecté qu'il interagissait avec une IA. Ce problème est aggravé par un exode des modérateurs suite aux changements de tarification de l'API de Reddit en 2023, avec 60 % des modérateurs restants signalant une dégradation significative de la qualité du contenu.
L'échec du réseau social relancé de Digg, qui s'est effondré en seulement deux mois suite à une attaque de bots, sert d'avertissement sévère. Le co-fondateur de Reddit, Alexis Ohanian, avait spécifiquement soutenu le relancement de Digg pour résoudre le problème d'authenticité qu'il voyait affliger Internet. Son échec rapide démontre la profonde difficulté de vérifier l'interaction humaine en ligne. Google construit maintenant l'avenir de son produit de recherche sur une source de données qui ne peut pas distinguer de manière fiable entre les véritables publications d'utilisateurs et le contenu généré par l'IA conçu pour manipuler à la fois les utilisateurs et les algorithmes.