Los editores pierden el 60% del tráfico mientras Google se orienta a la IA
El lanzamiento de los Resúmenes de IA de Google ha provocado un colapso dramático en el tráfico de referencia para los creadores de contenido, reorganizando fundamentalmente la economía de la búsqueda. Nuevos datos revelan que los pequeños editores han sido los más afectados, perdiendo el 60% de su tráfico de referencia de búsqueda en los últimos dos años. Los editores de tamaño mediano vieron una caída del 47%, mientras que incluso los grandes editores experimentaron una disminución del 22%. Esta evaporación del tráfico es una consecuencia directa de la IA de Google que resume la información directamente en la página de resultados, reduciendo la necesidad de que los usuarios hagan clic en sitios web externos. Los datos de Alemania muestran que cuando un Resumen de IA está presente, la tasa de clics para el resultado de búsqueda orgánico superior se desploma del 27,7% a solo el 11% —una reducción del 59% en los clics.
Este giro algorítmico lejos de los sitios web tradicionales ha creado un nuevo creador de reyes: Reddit. Los modelos de IA de Google ahora priorizan en gran medida el contenido de los foros para proporcionar perspectivas "auténticas" en primera persona, lo que ha provocado que la visibilidad de Reddit en los resultados de búsqueda casi se triplicara entre agosto de 2023 y abril de 2024. Esto ha posicionado a Reddit como una fuente de datos crítica para la próxima generación de búsqueda, trasladando el valor de los productores de contenido original a los agregadores de contenido.
Reddit monetiza datos comprometidos en acuerdos de licencia de 203 millones de dólares
Aprovechando su recién descubierta importancia estratégica, Reddit ha firmado acuerdos de licencia de datos por un total de 203 millones de dólares, incluido un acuerdo histórico de 60 millones de dólares al año con Google. La compañía presenta su vasto archivo de discusiones de usuarios como "conversaciones humanas auténticas", un recurso supuestamente invaluable para entrenar grandes modelos de lenguaje (LLM). Sin embargo, este lucrativo modelo de negocio se basa en una base precaria. El CEO de Reddit, Steve Huffman, admitió en junio de 2025 que la plataforma está en una "carrera armamentista" contra el spam generado por IA, una batalla que parece estar perdiendo. Solo en la primera mitad de 2025, Reddit eliminó más de 40 millones de publicaciones de spam.
El problema no es solo el spam, sino la manipulación sofisticada. Ha surgido un ecosistema comercial completo con herramientas como "ReplyGuy" y "Redreach" que permiten a los especialistas en marketing inyectar automáticamente menciones de marca y recomendaciones de productos en las conversaciones de Reddit. Estos servicios anuncian abiertamente su capacidad para que los clientes aparezcan en los Resúmenes de IA de Google, convirtiendo efectivamente a Reddit en un vector para manipular la IA de Google a escala industrial. Esto plantea serias preguntas sobre la autenticidad de los datos que Google está pagando una prima por licenciar.
La autenticidad se desmorona mientras los bots superan a los humanos
La afirmación de proporcionar "conversación humana auténtica" está siendo sistemáticamente refutada. Un estudio de la Universidad de Cornell desplegó bots de IA en el subreddit r/changemyview y encontró que eran de tres a seis veces más persuasivos que los comentaristas humanos. Durante cuatro meses y mil comentarios, ni un solo usuario o moderador detectó que estaban interactuando con IA. Este problema se agrava por el éxodo de moderadores tras los cambios de precios de la API de Reddit en 2023, con el 60% de los moderadores restantes informando una degradación significativa en la calidad del contenido.
El fracaso de la red social relanzada de Digg, que colapsó en solo dos meses por una avalancha de bots, sirve como una dura advertencia. El cofundador de Reddit, Alexis Ohanian, apoyó específicamente el relanzamiento de Digg para resolver el problema de autenticidad que veía que plagaba Internet. Su rápido fracaso demuestra la profunda dificultad de verificar la interacción humana en línea. Google ahora está construyendo el futuro de su producto de búsqueda sobre una fuente de datos que no puede distinguir de manera confiable entre publicaciones genuinas de usuarios y contenido generado por IA diseñado para manipular tanto a los usuarios como a los algoritmos.