Una coalición de más de 200 expertos en desarrollo infantil y grupos de defensa exige que Google y YouTube dejen de usar inteligencia artificial para crear contenido para niños, una medida que podría impactar un mercado que algunos creadores afirman vale millones.
Más de 200 organizaciones de defensa infantil, lideradas por la organización sin fines de lucro Fairplay, han enviado una carta a los directores ejecutivos de Google y YouTube exigiendo la prohibición de videos de baja calidad generados por IA, apodados "basura de IA" (AI slop), en la plataforma YouTube Kids, citando riesgos significativos para el desarrollo de los jóvenes espectadores.
"Este contenido, plagado de errores e imágenes perturbadoras, no es solo entretenimiento inofensivo; es desinformación para niños pequeños", dijo Dana Suskind, profesora de cirugía y pediatría en el Centro TMW para el Aprendizaje Temprano. "Llega durante un periodo crítico del desarrollo, cuando los cerebros de los niños se están conectando, literalmente, para toda la vida".
La carta, firmada por grupos como la Federación Estadounidense de Maestros y expertos como el autor de "The Anxious Generation", Jonathan Haidt, señala que los videos generados por IA a menudo no tienen trama y son hipnóticos, diseñados para maximizar el tiempo de visualización. Los grupos argumentan que esta "basura de IA" desplaza actividades del mundo real cruciales para el desarrollo. La carta señala que los principales canales de basura de IA dirigidos a niños ya están generando más de 4,25 millones de dólares en ingresos anuales.
La demanda presiona a la lucrativa división de YouTube de Alphabet (GOOGL), que enfrenta un creciente escrutinio regulatorio sobre su impacto en los niños. El resultado podría forzar cambios costosos en su moderación de contenido y diseño de plataforma, afectando potencialmente el compromiso de los anunciantes y la confianza de los inversores, especialmente tras un veredicto reciente en el que un jurado encontró a YouTube y Meta responsables de diseñar plataformas para enganchar a usuarios jóvenes sin preocuparse por su bienestar.
Defensores desafían las salvaguardas de IA de YouTube
La coalición pide a YouTube que etiquete claramente todo el contenido generado por IA, prohíba su aparición en la aplicación YouTube Kids y restrinja su recomendación a usuarios menores de 18 años. Además, exigen una opción de control parental que permita a los padres bloquear completamente el contenido de IA, incluso si un niño lo busca activamente.
Fairplay argumenta que la política actual de divulgación voluntaria de YouTube es insuficiente. La política requiere que los creadores etiqueten solo el contenido "realista" realizado con medios sintéticos, dejando un gran volumen de videos de IA animados o claramente no realistas sin ninguna divulgación. El grupo de defensa sostiene que muchos niños pequeños no pueden leer ni comprender tales etiquetas, lo que los deja vulnerables a lo que llaman "contenido de IA hipnótico y sin trama".
YouTube defiende sus políticas ante el escrutinio
En respuesta, un portavoz de YouTube afirmó que la empresa tiene "estándares altos para el contenido en YouTube Kids, incluyendo la limitación del contenido generado por IA en la aplicación a un pequeño conjunto de canales de alta calidad". La empresa también señaló que ofrece a los padres la posibilidad de bloquear canales y que está desarrollando activamente etiquetas específicas para la aplicación YouTube Kids.
La presión de los grupos de seguridad infantil ocurre poco después de que el AI Futures Fund de Google invirtiera 1 millón de dólares en Animaj, un estudio de animación por IA que produce contenido para niños y ha atraído una audiencia significativa. Aunque el CEO de YouTube, Neal Mohan, mencionó anteriormente que "gestionar la basura de IA" era una prioridad, la coalición cree que las acciones de la plataforma no coinciden con su retórica, priorizando las ganancias sobre el bienestar de sus usuarios más jóvenes.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.