Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Informes RPP
La inflación dejó de ser una preocupación
EP 1235 • 04:07
Entrevistas ADN
El Tribunal Constitucional no declaró inocente al prófugo Vladimir Cerrón, precisó abogado
EP 1768 • 17:57
El poder en tus manos
EP138 | INFORMES | ¿Cómo avanza la participación política de las mujeres en América latina?
EP 138 • 03:42

El contenido de odio como negocio: ex trabajadora de Facebook expone los secretos del algoritmo

Facebook ha sido sindicada como una empresa que prioriza las ganancias por encima de la seguridad de sus usuarios
Facebook ha sido sindicada como una empresa que prioriza las ganancias por encima de la seguridad de sus usuarios | Fuente: AFP | Fotógrafo: JOSH EDELSON

Tras exponer datos sobre Instagram y el daño que ocasiona en adolescentes, Frances Haugen denunció la inacción de Facebook respecto a discursos de odio y noticias falsas.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Con el tiempo, las fallas de Facebook para el control de noticias falsas y discursos de odio se han evidenciado, junto con una serie de denuncias de los moderadores de contenido y los problemas emocionales que atraviesan. Sin embargo, estábamos demasiado lejos de conocer el real impacto de estas pasivas decisiones. Ahora, una exempleada de la red social fundada por Mark Zuckerberg ha decidido exponer documentos internos que evidencian, una vez más, que el negocio de la desinformación es conveniente.

Frances Haugen, exempleada de Facebook especializada en ciencia de datos, apareció en “60 Minutes” para extender la información que había compartido con el Wall Street Journal respecto al daño emocional que Instagram provoca en niñas y adolescentes. En este caso, la “whistleblower” presentó una serie de documentos extraídos por ella antes de su salida de Facebook en mayo de 2021.

“Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook. Y, con mayor frecuencia, Facebook escogía programas para optimizar para sus propios intereses, para ganar más dinero”, señaló Haugen.

Facebook escoge “ganancia sobre seguridad”

Con más de 2,800 millones de usuarios en el planeta, Facebook ha logrado posicionarse como la red social más importante del mundo, además de contar con aplicaciones como Instagram y WhatsApp para ampliar su participación de mercado. Sin embargo, la falta de reacción ante las noticias falsas, discursos de odio, contenido violento y publicaciones que incitan a la autoflagelación son preocupaciones constantes sobre la compañía de Mark Zuckerberg.

“Facebook está demostrado que no pueden actuar de forma independiente” añade Haugen en su testimonio. “Una y otra vez, ha demostrado que prefiere las ganancias a la seguridad. Está subvencionando su dolor por sus ganancias. Con nuestra seguridad”.

El discurso de odio genera engagement y Facebook no quiere cambiar eso

Uno de los detalles más importantes de la entrevista radica en el uso del algoritmo para identificar qué genera más engagement - término asociado a la interacción del usuario con contenidos dentro de una plataforma -, y cómo este sistema permite entender que la desinformación y los discursos de odio elevan esta métrica.

“Una de las consecuencias de cómo Facebook está seleccionando ese contenido hoy en día, es que está optimizada sólo para contenido que genera participación o reacción. Pero su propia investigación muestra que el contenido odioso, divisor o polarizador alienta más a la ira que a otras emociones”, responde la ingeniera en la entrevista.

Este impulso al contenido que genera más actividad no sólo produce más engagement, sino que alienta los ingresos por publicidad dentro del sitio.

Para Facebook, eso estaría por encima de un ajuste del algoritmo, de acuerdo con Haugen: “Facebook se ha dado cuenta de eso: Si cambian el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio. Los usuarios harán clic en menos anuncios. Ganarán menos dinero”.

Facebook responde a medias

A través de Lena Pietsch, directora de comunicaciones de políticas en Facebook, la empresa declaró en el mismo reportaje:

“Continuamos realizando mejoras significativas para abordar la propagación de información errónea y contenido dañino, por lo que sugerir que alentamos el contenido inadecuado y no hacemos nada simplemente no es cierto. Si alguna investigación hubiera identificado una solución exacta a estos complejos desafíos, la industria tecnológica, los gobiernos y la sociedad los habrían resuelto hace mucho tiempo”.

Frances Haugen tiene pensado presentarse ante el Congreso para sustentar la necesidad de una regulación sobre la red social, una postura política que ha encontrado eco en reiteradas ocasiones desde el escándalo de Cambridge Analytica y los procesos iniciados contra Facebook desde entonces.

“Espero que esto haya tenido un impacto lo suficientemente grande en el mundo como para que obtengan la fortaleza y la motivación de implementar esas regulaciones. Ese es mi objetivo”, concluye Haugen.

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Facebook

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA