Un reporte de medios bajo el nombre ‘Facebook Papers’ precisan que la red social de Mark Zuckerberg ignoró informes internos sobre el mal uso de los botones ‘Me gusta’ y ‘Compartir’.
Si la semana del “Apagón” fue complicada para Facebook, esta viene con más carga negativa. Con la aparición de un tercer denunciante de las malas prácticas de la compañía, una serie de informes han sido publicados simultáneamente bajo el nombre “Facebook Papers”. Un fragmento de esta serie de reportes se centra en los problemas que acarrean dos de los productos más emblemáticos de la empresa: los botones “Me Gusta” y “Compartir”.
De acuerdo con New York Times, una investigación de 2019 abordó la posibilidad de retirar el botón “Me Gusta” de Instagram, una decisión basada en el impacto de las métricas y cómo ellas generaban ansiedad y estrés a los usuarios más jóvenes cuando lograban bajos resultados, en comparación a perfiles más populares.
El equipo determinó que la ausencia de este botón provocaba una caída en las interacciones, pero no reducía los problemas emocionales de los adolescentes en la plataforma. Incluso, el resultado evidenciaba que los jóvenes publicaban menos contenido al retirarse esta reacción.
Este estudio provocó que Facebook tomara la decisión de retirar el botón en perfiles que lo solicitaran, aunque solo llegó aun grupo reducido de usuarios.
Los problemas con el botón “Compartir”
Sin embargo, la opción para compartir contenido en Facebook ha generado más problemas, al punto de ser una de las condiciones favorables para la expansión de discursos de odio y desinformación.
El reporte menciona que el mal uso que los usuarios le dan a la función ha amplificado el contenido tóxico en la plataforma:
“Si la integridad toma una postura de no intervención para estos problemas, ya sea por razones técnicas (precisión) o filosóficas, entonces el resultado neto es que Facebook, tomado como un todo, promoverá activamente (si no necesariamente conscientemente) este tipo de actividades. La mecánica de nuestra plataforma no es neutral".
Pese a este análisis interno, la compañía no tomó decisiones contundentes para un cambio drástico. Recientemente, Facebook añadió una opción para leer el material antes de compartirlo en el muro o con amigos, aunque esto no ha tenido mayor impacto en la expansión de información falsa o violenta.
Las cabezas no quieren cambios
El reporte de NYT sostiene que existe un alto nivel de frustración entre los empleados de Facebook, quienes a menudo culpan a los ejecutivos por interponerse en el camino.
En una publicación interna de agosto de 2020, un investigador de Facebook criticó el sistema de recomendación que sugiere páginas y grupos para que las personas los sigan, señalando que pueden "llevar muy rápidamente a los usuarios por el camino hacia teorías y grupos de conspiración".
Este funcionamiento, de acuerdo con el investigador, expone a los usuarios en riesgos de integridad, debido a la cercanía de estos tópicos con movimientos que avalan las teorías de conspiración o la misma QAnon: "Durante el tiempo que hemos dudado, he visto a gente de mi ciudad natal ir más y más por la madriguera del conejo. Ha sido duro de ver".
Comparte esta noticia