Un equipo de investigadores analizó la exposición a las noticias durante las elecciones estadounidenses de 2020 utilizando datos agregados de 208 millones de usuarios de la red social Facebook.
Un estudio realizado en Estados Unidos indica que los usuarios de las redes sociales políticamente conservadores están más segregados y encuentran más desinformación en Facebook.
El proyecto, llamado U.S. 2020 Facebook and Instagram Election Study, es el primero de este tipo y, para llevarlo a cabo, dieciséis académicos de universidades estadounidenses se asociaron con Meta (matriz de Facebook) para realizar una investigación independiente sobre lo que la gente ve en las redes sociales y cómo les afecta.
Las revistas Nature y Science publican varias investigaciones sobre el papel de las redes sociales en la democracia estadounidense y otra de ellas indica que, en el caso de Facebook, reducir la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
El citado estudio incorporó medidas como el registro previo de los experimentos y, además, Meta no podía restringir ni censurar los hallazgos y los autores principales tenían la última palabra sobre las decisiones de redacción e investigación.
Una de las investigaciones que publica Science, encabezada por Sandra González-Bailón, de la Universidad de Pensilvannia, abordó la cuestión de si Facebook permite la segregación ideológica en el consumo de noticias políticas.
El informe, según resume la revista, indica que los usuarios políticamente conservadores están "mucho más segregados y encuentran mucha más desinformación en la plataforma".
Los autores indican que Facebook "está sustancialmente segregado ideológicamente, mucho más de lo que han revelado anteriores investigaciones sobre el consumo de noticias en internet basadas en el comportamiento de navegación".
El equipo analizó la exposición a las noticias durante las elecciones estadounidenses de 2020 utilizando datos agregados de 208 millones de usuarios de esa red social.
Así, analizaron todo el contenido que los usuarios podían ver potencialmente; el contenido que realmente veían en los feeds y con el que interactuaban a través de clics, compartir u otras reacciones.
Los investigadores han detallado que "la segregación ideológica es alta", y que aumenta a medida que se pasa de la exposición potencial a la exposición real y a la participación.
En comparación con los liberales, los autores descubrieron que los usuarios políticamente conservadores estaban mucho más aislados en sus fuentes de noticias y expuestos a mucha más desinformación.
Por ello, señalaron que existe una asimetría entre las audiencias conservadoras y liberales, con "un rincón sustancial del ecosistema de noticias consumido exclusivamente por los conservadores; y la mayor parte de la desinformación existe dentro de este rincón, que no tiene equivalente en el lado liberal".
¿El algoritmo de Facebook altera las creencias políticas de los usuarios?
Otro de los artículos, en este caso publicado en Nature, firmado por la Universidad de Dartmourth, indica que reducir en Facebook la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
Estos resultados, según la publicación, desafían las opiniones sobre la medida en que las "cámaras de eco" de las redes sociales impulsan la polarización política.
La investigación midió, entre junio y septiembre de 2020, la exposición de los usuarios de Facebook en Estados Unidos a contenidos de fuentes políticamente afines, que los investigadores definen como aquellas del mismo lado político que el usuario.
Después, un grupo de 23.377 usuarios adultos participó en una reducción activa a la exposición a tales fuentes en aproximadamente un tercio durante tres meses, entre septiembre y diciembre, durante el clímax de las elecciones.
Los expertos hicieron encuestas para medir los cambios en las actitudes y creencias de los participantes y del grupo de control antes y después de esta intervención.
Las respuestas mostraron que la reducción de la exposición a fuentes afines no tuvo ningún efecto mensurable sobre la polarización, el extremismo ideológico, las evaluaciones de candidatos o la creencia en afirmaciones falsas, indica la publicación Nature.
Los autores aducen varias razones para estos resultados, como que la reducción de fuentes afines se compensó con un aumento de contenidos apolíticos o neutrales, en lugar de fuentes transversales, que podrían tener más probabilidades de provocar un cambio de opinión.
(EFE)
Te recomendamos
Comparte esta noticia