Más de 200 grupos y expertos en defensa de los niños exigen que YouTube prohíba por completo la “basura” generada por IA en su plataforma infantil, argumentando que los videos de baja calidad producidos algorítmicamente están reconfigurando los cerebros jóvenes y recaudando millones mientras los padres y los reguladores miran para otro lado.
La carta abierta, organizada por el grupo de defensa de los niños Fairplay y dirigida al director ejecutivo de YouTube, Neal Mohan, y al director ejecutivo de Google, Sundar Pichai, fue firmada por más de 135 organizaciones. Entre los firmantes se encontraban la Federación Estadounidense de Maestros y la Asociación Estadounidense de Consejería, así como destacados investigadores como Jonathan Haidt, autor de La generación ansiosa. Los autores de la carta dicen que YouTube no sólo no logra impedir que la IA llegue a los niños, sino que también se está beneficiando activamente de ella.
«Los videos generados por IA son en realidad solo una escalada de una miríada de problemas que YouTube ya tiene cuando se trata de interactuar con niños en sus plataformas», dijo Rachel Franz, directora del programa Young Children Thrive Offline de Fairplay. Fortuna. «Es importante abordar este fenómeno de la IA, pero también es igualmente importante criticar a YouTube por la forma en que su plataforma está diseñada para enganchar a los usuarios para que pasen más tiempo en formas que no están necesariamente relacionadas con la IA».
¿Qué es la ‘desaceleración de la IA’ de todos modos?
El término se refiere a una ola de videos producidos en masa y generados por IA que inundan plataformas como YouTube. El contenido es barato de crear, a menudo extraño o sin sentido, y está diseñado para captar y mantener la atención de los espectadores jóvenes (o realmente, de cualquier espectador). Y querido lector, los videos son extraños: animales de dibujos animados realizando tareas repetitivas en una estética de valle inquietante; vídeos “educativos” falsos con información confusa; o bucles hipnóticos sin ningún propósito puro. El New York Times documentó el fenómeno en una investigación de febrero y encontró videos de este tipo incrustados en YouTube Kids, una plataforma que YouTube ha comercializado como un espacio seguro y seleccionado para niños.
«Gran parte del contenido generado por IA está realmente diseñado para secuestrar la atención de los niños, especialmente los niños pequeños que recién están comenzando a desarrollar su control de impulsos, y realmente pueden distorsionar la realidad, crear confusión e impactar la forma en que los niños entienden el mundo que los rodea», dijo Franz, quien tiene experiencia en desarrollo infantil temprano. «Esto no es un problema de paternidad en sí mismo. La plataforma recomienda constantemente contenido de IA a los usuarios jóvenes de maneras que les resulta casi imposible evitarlo».
Los incentivos financieros son asombrosos. Fairplay descubrió que los principales canales de IA dirigidos a niños han obtenido más de 4,25 millones de dólares en ingresos anuales, y algunos creadores anuncian abiertamente ganancias de «contenido de IA fascinante y sin trama». La carta argumentaba que ninguna política será suficiente hasta que la plataforma elimine los incentivos financieros para los creadores de estos videos.
«Sólo alrededor del 5% de los vídeos de YouTube para niños menores de 8 años son realmente de alta calidad. Y entre ese 5% hay debates sobre si realmente son de alta calidad», dijo Franz. YouTube, sin embargo, considera que esa cifra va en contra de su política de estándares.
«Tenemos altos estándares para el contenido de YouTube Kids, incluida la limitación del contenido generado por IA en la aplicación a un pequeño conjunto de canales de alta calidad», dijo el portavoz de YouTube, Boot Bullwinkle. Fortuna en un comunicado. «También ofrecemos a los padres la opción de bloquear canales. En YouTube, priorizamos la transparencia cuando se trata de contenido de IA, etiquetamos el contenido de nuestras propias herramientas de IA y exigimos a los creadores que divulguen contenido de IA realista. Siempre estamos evolucionando nuestro enfoque para mantenernos actualizados a medida que evoluciona el ecosistema».
como solucionarlo
La coalición se basa en investigaciones sobre el desarrollo infantil para argumentar que ésta no es una preocupación específica. Incluso los adultos pueden tener problemas para identificar correctamente el contenido generado por IA, y lo hacen bien sólo alrededor del 50% de las veces. Lo que es más preocupante, la exposición repetida hace que las personas sean más propensas a percibir las imágenes de IA como reales, incluso después de que les digan que son falsas. Para los niños pequeños cuyos cerebros todavía están construyendo esquemas fundamentales de la realidad, el daño se agrava con el tiempo.
Las peticiones de Fairplay son estructurales, no cosméticas. La coalición pide a YouTube que etiquete claramente todo el contenido generado por IA en toda la plataforma; prohibir completamente el contenido generado por IA en YouTube Kids; y prohibir el contenido “hecho para niños” generado por IA en la plataforma principal de YouTube. Fairplay quiere que YouTube impida que su algoritmo recomiende contenido de IA a usuarios menores de 18 años; introducir un interruptor parental para desactivar el contenido de IA que está desactivado de forma predeterminada; y detener toda inversión en contenido generado por IA dirigido a niños.
Esta última demanda apunta directamente a la inversión de YouTube en Animaj, un estudio de entretenimiento infantil impulsado por IA respaldado por el AI Futures Fund de Google. «YouTube está esencialmente invirtiendo en dañar a los bebés mediante la compra de Animaj», dijo Franz.
En la declaración de Bullwinkle a Fortuna, El portavoz confirmó que YouTube está desarrollando etiquetas de IA dedicadas para YouTube Kids, aunque no proporcionó un cronograma. El director ejecutivo de YouTube, Neal Mohan, ya había señalado en su carta anual la “gestión del desperdicio de IA” como una de sus principales prioridades. «Para reducir la difusión de contenido de IA de baja calidad, estamos construyendo activamente sobre nuestros sistemas establecidos que han tenido mucho éxito en la lucha contra el spam y el clickbait, y reduciendo la difusión de contenido repetitivo y de baja calidad», se lee en la carta.
Bullwinkle también señaló que los 15 canales mencionado en el Veces Los artículos no están en YouTube Kids. y que la plataforma eliminó videos que violaban sus políticas de seguridad infantil. Pero para Franz esto no es suficiente.
«No debería corresponder a investigadores individuales señalar algunos canales como ejemplos que están haciendo cosas que potencialmente podrían dañar a los niños, y que esa sea la base para lo que YouTube decide lanzar la plataforma. Lo que vimos con Elsagate fue que en ese momento, YouTube eliminó 150.000 vídeos de su plataforma y varios cientos de canales diferentes», dijo Franz. Se refería a un escándalo de 2017 en el que miles de vídeos en YouTube y YouTube Kids utilizaban personajes infantiles conocidos, como Elsa de Congelado y Peppa Pig, para ocultar contenido profundamente perturbador que incluye violencia gráfica, temas sexuales y consumo de drogas, todo ello disfrazado con etiquetas compatibles con algoritmos como “educación” y “diversión” para burlar los filtros y llegar a los niños pequeños.
«Así que sabemos que YouTube tiene la capacidad de monitorear, rastrear y eliminar estos videos a escala, pero en este momento, están aplicando un enfoque de curita, donde los canales que están recibiendo cobertura de prensa, parece que son sobre los que van a hacer algo», continuó Franz. «Pero no soluciona el problema general».






:max_bytes(150000):strip_icc():focal(688x207:690x209)/sunday-sitdown-live-willie-geist-ina-garten-053025-d791b10e96b5461b84cbd2290dbdcd0a.jpg?w=100&resize=100,75&ssl=1)
