Tras haber recibido denuncias acerca de una red de pedófilos que usa YouTube para compartir videos no pornográficos de menores de edad, Google ha decidido enfrentar directamente el problema y eliminar el contenido considerado inapropiado.
Ha sido un mes complicado para YouTube. Tras haber sido señalada como la causante de la expansión de “posturas terraplanistas”, y eliminar canales de Pokemon GO por error, recibe ahora un duro golpe de confianza: ha sido acusada de facilitar la presencia de pedófilos en el portal de videos, quienes comparten videos de niñas y adolescentes y añaden etiquetas de tiempo para que otros pedófilos tengan acceso rápido a las escenas en donde las menores aparecen descubiertas.
Google ha decidido enfrentar el problema de manera directa, y ha iniciado un barrido extenso de canales y comentarios, con la finalidad de erradicar nexos y conexiones entre los usuarios y los canales involucrados en este macabro esquema. Este flujo fue detectado a través de un hilo de Reddit, y evidenciado por Matt Watson en un video, que demuestra el método utilizado por este grupo para traficar el morbo. Hasta el momento, la plataforma ha eliminado más de 400 canales asociados a esta actividad, y millones de comentarios han sido borrados de los videos.
A través de un comunicado muy puntual, YouTube confirmó su posición sobre el tema:
"Cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores de edad es abominable y tenemos políticas claras que prohíben esto en YouTube. Tomamos medidas inmediatas al eliminar cuentas y canales, informar de actividades ilegales a las autoridades y deshabilitar comentarios en decenas de millones de videos que incluyen a menores. Hay más por hacer y seguimos trabajando para mejorar y detectar el abuso más rápidamente", agregó un portavoz de YouTube a CNN.
Sin embargo, YouTube se enfrenta a varios problemas de enfoque en este asunto:
El contenido. A diferencia de contenido explícito, como violencia o sexo, este tipo de videos no atenta contra la comunidad. Al no tener escenas violentas, mensajes de odio, o cualquier otro tipo de mensaje que vaya en contra de las políticas de YouTube, no es señalado como inapropiado en el sistema. Son videos de niñas, haciendo cosas de niñas. Jugando, bailando, conversando, siendo niñas.
La intención humana. Esta será, seguramente, la variable más difícil de identificar. Las filias tienen la peculiaridad de deformar la realidad, al punto de encontrar placer en donde la mayoría no lo encontramos. Por esa razón es tan difícil determinar que un contenido es inapropiado o no, pues no tenemos la misma lectura que una persona que retuerce un contenido creado de la manera más inocente.
El alcance de los algoritmos. Las fórmulas algorítmicas identifican elementos de la imagen que pueden ser interpretados como inadecuados. Recordemos que estamos ante un servicio que sube más de 400 horas de video por minuto, y que ningún ser humano podría hacer una selección eficiente de contenidos inapropiados a esa velocidad. Para eso, Google desarrolla complejos algoritmos de búsqueda, que cada día son más eficientes. Sin embargo, hay variantes que no entenderá, como la pierna de una niña en medio de un juego, o una camiseta que se cae por accidente y muestra parte de un vientre.
Las etiquetas. Esto es lo novedoso en el mecanismo de expansión en la red de pedófilos identificada en YouTube. Estas etiquetas son herramientas que la misma red social incluye, pues ayudan a indexar contenido de manera veloz. Si tenemos un tutorial de 45 minutos sobre confección de camisetas, podemos usar estas etiquetas para señalar partes exactas con descripción. Lo que han hecho los depravados identificados es usar este mecanismo de etiquetas, y como el algoritmo que analiza los comentarios no encuentra frases hirientes ni insultos, los deja ahí. Son solo números, que llevan a una parte específica de un video, en donde las piernas de la niña se ven en primer plano, o una entrepierna aparece a lo lejos. Así de decadente.
Como usuarios, nos toca ayudar. Si ves un contenido inapropiado, repórtalo. Si ves un contenido que puede guiar a algo tan oscuro como lo detallado, repórtalo. Si descubres que algunos vínculos son compartidos bajo una modalidad sospechosa, repórtalo. Esa es nuestra labor en una red que aprende del usuario.
Estas variables, como ves, están dentro de las reglas de YouTube. Si analizamos este problema, desde el punto de vista de la plataforma, no encontramos distorsión alguna que amerite un bloqueo o una advertencia. Los procesos son trastocados, pero no por culpa de YouTube, sino por el uso malintencionado de usuarios, que han encontrado en el flujo de la red un espacio seguro para saciarse. No hay videos porno, no hay comentarios ofensivos, no hay spam, no hay lenguaje sexual explícito, no hay rastro de usuarios. No hay nada que sea inusual o sospechoso en YouTube. Todo está en los ojos de quien mire. Y contra eso debe combatir YouTube.
Comparte esta noticia