El algoritmo de reconocimiento facial de Facebook confundió a afrodescendientes con primates, causando polémica. La compañía se disculpó ante ello.
Facebook anunció el viernes que deshabilitó una función de recomendación de tópicos luego que asoció erróneamente hombres afrodescendientes con "primates" en un video publicado de la red social.
Un vocero de la compañía lo llamó "un error claramente inaceptable" y dijo que el software de recomendaciones involucrado fue desconectado.
"Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas", respondió Facebook al ser consultada por la agencia de medios AFP.
"Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo".
Más polémica para Facebook
El programa de reconocimiento facial ha sido duramente criticado por defensores de derechos civiles, quienes señalan problemas de precisión particularmente con personas que no son blancas.
Usuarios de Facebook en días recientes vieron el video de un tabloide británico protagonizado por afrodescendientes y recibieron un aviso generado automáticamente preguntando si querían "seguir viendo videos sobre primates", de acuerdo con el diario The New York Times.
Darci Groves, antiguo jefe de diseño de contenido de Facebook, compartió una captura de pantalla de la recomendación.
"Este aviso de 'seguir viendo' es inaceptable", escribió Groves en Twitter. "Esto es atroz".
Con información de AFP
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.
Comparte esta noticia