Facebook y los investigadores de las universidades de Cornell y California modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos. El objetivo era saber si el número de mensajes positivos o negativos leídos por los miembros de la red social tenía influencia sobre lo que publican.
Facebook habría manipulado las informaciones de unos 700 mil usuarios anglófonos para un estudio científico sobre el "contagio emocional" de los grupos.
El estudio se realizó del 11 al 18 de enero de 2012, donde Facebook y los investigadores de las universidades de Cornell y California modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos.
El objetivo era saber si el número de mensajes positivos o negativos leídos por los miembros de la red social tenía influencia sobre lo que publican.
Según el resultado de la investigación, publicado el 17 de junio en la revista de la Academia Nacional de las Ciencias de Estados Unidos (PNAS), se habría evidenciado que los usuarios utilizan más palabras negativas o positivas de acuerdo al alcance de los contenidos a los que sean expuestos.
Como era de esperarse, el estudio pasó desapercibido al principio pero luego se destaparon las alarmas y causó la indignación de los internautas luego de una serie de artículos publicados el sábado último en la revista en línea de Slate y en las páginas web de The Atlantic y Forbes.
"Es sin duda legal pero ¿es ético?", se preguntaba The Atlantic en un artículo. Mientras, algunos internautas expresaron su "profunda pena" y lo describieron como "alarmante" y "demoníaco".
Susan Fiske, de la Universidad de Princeton y editora de la PNAS, evadió la responsabilidad al ser cuestionada sobre el estudio, reconoció que el estudio irritó a los usuarios e indicó "que es Facebook el que debe aportar una respuesta al desasosiego" de sus usuarios.
Comparte esta noticia