El contenido de violencia explícita se colaba en la función de Twitter.
Linda Yaccarino, la nueva CEO de Twitter, tiene mucho trabajo por delante.
Twitter no solo presenta problemas en su relación con algunos usuarios luego de exigir pagos para verificar usuarios o amenazar con borrar cuentas, también hay inconvenientes en la manera en la que ordena y sugiere el contenido.
No es un secreto que Elon Musk pretende que Twitter sea una app “para todo”, por lo que su gran cantidad de nuevas funciones pueden provocar una experiencia no tan grata. Así pasó con la de autocompletar.
Thread of new reporting:
— Ben Collins (@oneunderscore__) May 12, 2023
For the last couple of weeks, if you searched "cat" on Twitter, the search box would autocomplete to "cat in a blender."
The video you would see when you clicked through appeared to show a kitten being slaughtered.
How did this happen? I found out. pic.twitter.com/KzJHSv2E4a
Adiós al autocompletado
Twitter tuvo que eliminar su función autocompletar de la barra de búsquedas luego de que usuarios reportaron de horrorosas sugerencias.
Un ejemplo claro. Al escribir “gato”, Twitter sugería “gato en licuadora”, “gato en licuadora video completo” y “gato en una licuadora”, como comparte en una captura de pantalla Ben Collins, reportero de NBC.
Los videos de un reciente tiroteo en un centro comercial de Texas que dejó 9 muertos el 6 de mayo también estaban visibles en la barra de búsquedas, indicó la BBC.
Con la gran cantidad de personas despedidas en Twitter, parece que la red social no tiene suficiente fuerza laboral para moderar la gran cantidad de videos que alberga.
Comparte esta noticia