Síguenos en Google News
Imagen vía Unsplash (ilgmyzin)

YouTube ahora está pidiendo a sus usuarios detectar contenido generado con IA al calificar videos

YouTube está dando un paso concreto en su lucha contra el contenido de baja calidad producido masivamente con inteligencia artificial. Y es que la plataforma comenzó a mostrar una pregunta adicional cuando un usuario califica un video con «no me gusta»: le consulta si el contenido fue generado con IA generativa.

El experimento, detectado primero por usuarios en Reddit y luego confirmado por múltiples medios tecnológicos, representa el primer intento activo de YouTube por recopilar datos directos de sus propios espectadores para identificar el llamado «AI slop», es decir, el contenido automatizado, genérico y de escaso valor producido en masa mediante herramientas de generación artificial.

El mecanismo es sencillo pero potencialmente muy poderoso a escala. Cuando un usuario presiona el botón de «no me gusta» en un video, la plataforma despliega una pantalla opcional donde pregunta: «¿Este video fue creado principalmente con IA generativa?». La respuesta es voluntaria y no bloquea el proceso de calificación habitual.

Sin embargo, si millones de usuarios responden esa pregunta de forma consistente para un mismo canal o tipo de contenido, YouTube acumularía un conjunto de datos de entrenamiento y señales de calidad que ningún sistema automatizado interno podría generar por sí solo con la misma precisión contextual.

El contexto detrás de esta iniciativa es el crecimiento exponencial del contenido generado con IA en la plataforma durante los últimos dos años. Canales que producen cientos de videos semanales usando voces sintéticas, imágenes generadas y guiones escritos por modelos de lenguaje han proliferado en nichos como los tutoriales, el entretenimiento infantil, los resúmenes de noticias y los videos de «datos curiosos».

Muchos de estos canales acumulan millones de visualizaciones sin que ningún ser humano haya estado frente a una cámara ni escrito una sola línea del guión. Hasta ahora, YouTube exigía a los creadores declarar voluntariamente si su contenido usaba IA generativa de forma significativa, bajo amenaza de sanciones en caso de no hacerlo. Pero ese sistema de autodeclaración tiene un defecto evidente: los canales que producen «AI slop» con fines puramente monetarios tienen todos los incentivos para no declararlo.

Si los datos recopilados resultan fiables, YouTube podría usarlos para ajustar el algoritmo de recomendación y reducir la visibilidad de canales identificados repetidamente como productores de contenido artificial de baja calidad.

YouTube no ha hecho un anuncio oficial sobre su alcance ni sobre los criterios que utilizará para procesar las respuestas de los espectadores. Sin embargo, la sola existencia de la pregunta indica que la plataforma reconoce que sus sistemas internos no son suficientes para frenar el avance del «AI slop» por sí solos.

Síguenos en Google News