YouTube responde a preguntas frecuentes sobre la manera en que desarrollan sus Normas de la Comunidad.
Muchas veces cuando subimos videos a YouTube, nos hemos encontrado con el problema de que el contenido de dicho video infringe las normas de la comunidad.
Puede que en esa situación YouTube tenga razón, pero también hay casos en que subes un contenido a la plataforma y te lo bloquean, pero ves que ese contenido sí está permitido en otro canal.
Entonces es ahí cuando te preguntas: ¿Cómo YouTube establece las normas de la comunidad?
Pues la mayor parte del contenido de YouTube no infringe sus directrices. Esto no significa que eliminarán todo el contenido ofensivo de YouTube. Ellos consideran cuidadosamente dónde establecer los límites en el contenido que podría causar daños graves a los usuarios.
Según explican en el propio blog de YouTube, el aprendizaje automático identifica a gran escala el contenido que puede infringir sus políticas y propone que se revisen aquellos que pueden hacerlo.
Si el discurso de Nuremberg de Hitler se sube a la plataforma sin ningún contexto, ese contenido puede infringir las políticas sobre incitación al odio que tiene la plataforma. Sin embargo, si ese mismo discurso se incluye en un documental que condena las acciones de los nazis, es altamente probable que lo consideren como un contenido que cumple con sus pautas de contenido para fines educativos, documentales, científicos o artísticos (EDSA).
Ellos van revisando sus políticas con frecuencia para asegurarse de que, como las leyes que rigen la sociedad en la que vivimos, se ajusten a los cambios. No paran de buscar los resquicios legales que puedan surgir, así como también los nuevos riesgos que pongan a prueba sus políticas.
Mientras siguen trabajando en alinear sus políticas con el entorno actual, no pierden de vista el objetivo de prevenir posibles daños graves. En ese caso, YouTube trabaja en estrecha colaboración con terceros que se especializan en temas como la incitación al odio o el acoso.
Intelligence Desk es un equipo que forma parte de la organización Trust y de la seguridad de YouTube. Está formado por ex miembros de las agencias de inteligencia del gobierno e identifican tendencias que pueden llegar a violar sus políticas, monitoreando amenazas en curso, como las teorías de conspiración de ideologías extremistas.
La mayor parte de su trabajo es preventivo y para adoptar una nueva política, se necesita combinar el trabajo de las personas con la tecnología de aprendizaje automático. Por ejemplo, para que una política se lance y aplique correctamente, tanto los agentes humanos como los sistemas informáticos deben colaborar.
También dicen colaborar con ONG, académicos y expertos en la materia de todas las tendencias, y una vez que detectan un área donde se necesita una nueva política, el equipo de Trust entra en juego y es responsable de crear una solución personalizada.
Para asegurarse de que las medidas de cumplimiento de políticas se apliquen de manera consistente, es fundamental el razonamiento humano, aunque no es una tarea fácil, pero están constantemente tomando en consideración la retroalimentación de sus empleados y miembros de la comunidad sobre cómo pueden mejorar.
Puedes encontrar más información sobre este tema en el blog de YouTube.