YouTube no puede controlar la enorme red de pedofilia y soft-core que invade la red | Fuente: RPP / Getty images

Todos los servicios de redes sociales están gestionados por algoritmos, secuencias que desarrollan una cadena de análisis y resultados para entregar al usuario contenido que se basa en gustos y preferencias. Estos algoritmos mejoran con el tiempo, y se implementan constantemente. Sin embargo, también tienen “áreas grises”, en donde simplemente reaccionan a comandos sin acceder al sub-contexto o el interés de los usuarios. Ya hemos tenido un episodio con Facebook, cuando permitió resultados de búsquedas asociados a niñas y situaciones incómodas. Ahora, uno de esos vacíos se ha vuelto un peligro creciente en YouTube, el portal de videos más grande en el mundo.

 A través de un post de Reddit, y un video explicando en YouTube lo ocurrido, Matt Watson ha evidenciado una enorme red de pedofilia y “soft-core” (contenido erótico menos explícito a nivel sexual) que aprovecha un “agujero de gusano” dentro del algoritmo para ingresar a esta sub red dentro de YouTube, que muestra videos de niñas en situaciones cotidianas pero que, en algún momento del video, podrían tener una connotación sexual en la cabeza de quien considera “sexual” un video de yoga, una voltereta o cualquier video de una niña que, inocentemente, sube material a la red. Incluso, hay usuarios que vuelven a subir material y señalan con vínculo el momento exacto en donde “se puede ver algo”, un morboso repaso a escenas en donde las niñas aparecen con menos ropa o en posiciones que pueden ser disfrutadas por depravados en línea.

La peor parte de este proceso, en donde Watson levanta la voz de alerta, es que muchos de estos videos son monetizados, y añaden publicidad de marcas. Entendiendo que el proceso de monetización de videos también funciona con algoritmo, es inevitable que este “agujero de gusano” afecte a clientes de YouTube que invierten pauta en la red. Empresas como Purina, Nestlé, EPIC Games, Disney, McDonald’s y otras ya han notificado a la red sobre estos hechos y se han pronunciado en redes sociales sobre este asunto latente.

¿Cómo es que estas personas aprovechan el “agujero de gusano” en el algoritmo? Matt Watson comenta en el video que solo es necesario contar con un servicio VPN que enrute la conexión de internet, y que el servicio no pueda identificar la ubicación exacta del usuario. Luego, se busca un término (en este caso Watson usó “Bikini haul), y en pocos clics los videos relacionados de la derecha eran protagonizados por niñas o adolescentes, casi todas menores de edad.

Si bien YouTube ya ha sido notificada sobre esto, los algoritmos de búsqueda no parecen estar afinados aun para derribar el contenido inapropiado. Incluso se han reportado casos en donde canales de Pokemon GO y Fortnite han sido eliminados del servicio de manera equivocada.

¿Qué opinas?