YouTube
Los botones "no me gusta" y "no me interesa" no tienen el efecto esperado en YouTube, según el estudio de Mozilla. | Fuente: Unsplash/YouTube

YouTube no está siendo transparente con el verdadero impacto de sus opciones “no me gusta”, “no me interesa” y “no recomendarme este canal”. Según lo que señala un nuevo estudio, la plataforma de videos de YouTube sigue haciendo recomendaciones similares en la mayoría de casos incluso si el usuario utiliza alguno de los botones para moderar contenido, demostrando que apenas funcionan.

La investigación de Mozilla revela que los botones de respuesta implementados en YouTube no evitan por completo que el algoritmo deje de hacer recomendaciones similares a las que supuestamente el usuario ha descartado. Tomando los datos de más de 20 mil usuarios, el estudio determinó que estos botones son ineficaces para impedir que se sugiera contenido similar al que no se desea ver en gran medida.

Además, los investigadores mencionan que estas funciones de la plataforma solo permiten que más de la mitad de las recomendaciones sean similares a las que el usuario indicó como “no interesante” en el mejor de los casos mientras que, en el peor de los casos, apenas y logran bloquear videos similares.

Dos opciones ineficaces de YouTube

Para poder recopilar los datos de los usuarios y sus visualizaciones, los investigadores de Mozilla consultaron con voluntarios que utilizaron RegretsReporter, una extensión de su navegador web que superpone un botón general para la opción “dejar de recomendar” a los videos de YouTube. Los usuarios fueron asignados a un grupo aleatoriamente, de modo que cada vez que escogían una de las opciones para moderar contenido recomendado, se enviaba una señal a la compañía.

En base a los datos obtenidos de más de 500 millones de videos recomendados, los voluntarios generaron más de 44 mil pares entre videos rechazados más un video similar recomendado por YouTube. Luego, usando aprendizaje automático y su propio criterio, decidieron si la recomendación era demasiado parecida al video que el usuario rechazó.

Los resultados determinaron que el envío de señales de “no me gusta” y “no me interesa” fue solo “marginalmente eficaz” para evitar estas recomendaciones incorrectas, impidiendo tan solo el 12% y 11% respectivamente. Por su parte, los botones “no recomendarme este canal” y “eliminar del historial” resultaron ser un poco más eficaces con 43% y 29% de eficacia, pero siguen estando lejos del rendimiento adecuado.

"YouTube debería respetar los comentarios que los usuarios comparten sobre su experiencia, tratándolos como señales significativas sobre cómo la gente quiere pasar su tiempo en la plataforma", escribió uno de los autores de la investigación.

Becca Ricks, investigadora de Mozilla afiliada al estudio, mencionó que plataformas como YouTube, TikTok e Instagram no son transparentes para explicar cómo funcionan sus controles y cómo se tiene en cuenta el feedback del usuario. “Creo que en el caso de YouTube, la plataforma está equilibrando la participación de los usuarios con su satisfacción, lo que en última instancia es un compromiso entre la recomendación de contenido que lleva a la gente a pasar más tiempo en el sitio y el contenido que el algoritmo cree que le gustará a la gente”, mencionó Ricks.

“La plataforma tiene el poder de ajustar cuál de estas señales tiene más peso en su algoritmo, pero nuestro estudio sugiere que la opinión del usuario puede no ser siempre la más importante”, dijo la investigadora a The Verge.

YouTube Mozilla
El estudio de Mozilla señala que los controles de contenido de YouTube no funcionan en la gran mayoría de casos. | Fuente: Mozilla

La respuesta de YouTube sobre los botones “no me gusta” y “no me interesa”

Elena Hernández, portavoz de YouTube, mencionó al portal The Verge que los comportamientos de los botones son intencionados debido a que la plataforma no quiere bloquear todo el contenido alineado a un tema, criticando además que el estudio presentado por Mozilla no toma en consideración el diseño de los controles de YouTube. Por otra parte, la representante menciona que la descripción “similar” de la investigación no toma en cuenta cómo funciona el sistema de recomendación de la página: la opción "no me interesa" elimina un vídeo específico, y el botón "no recomendar canal" impide que el canal sea sugerido en el futuro.

"Es importante destacar que nuestros controles no filtran temas o puntos de vista enteros, ya que esto podría tener efectos negativos para los espectadores, como la creación de cámaras de eco. Damos la bienvenida a la investigación académica en nuestra plataforma, por lo que recientemente hemos ampliado el acceso a la API de datos a través de nuestro Programa de Investigadores de YouTube. El informe de Mozilla no tiene en cuenta cómo funcionan realmente nuestros sistemas y, por lo tanto, nos resulta difícil extraer muchas conclusiones”, dijo Hernández.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.