Buscar
Reproduciendo
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Reflexiones del evangelio
Miércoles 23 de julio | "El resto cayó en tierra buena y dio grano: unos, ciento; otros, sesenta; otros, treinta. El que tenga oídos que oiga"
EP 1039 • 12:00
Informes RPP
BRICS Media 2025: Encuentro que puso en agenda al sur global
EP 1307 • 03:55
Letras en el tiempo
Obras que cumplen 100 años
EP 27 • 39:32

Facebook etiqueta erróneamente a afrodescendientes como 'primates'

Captura de las sugerencia de la IA de Facebook ante el video de un afrodescendiente.
Captura de las sugerencia de la IA de Facebook ante el video de un afrodescendiente. | Fuente: Twitter

El algoritmo de reconocimiento facial de Facebook confundió a afrodescendientes con primates, causando polémica. La compañía se disculpó ante ello. 

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Facebook anunció el viernes que deshabilitó una función de recomendación de tópicos luego que asoció erróneamente hombres afrodescendientes con "primates" en un video publicado de la red social

Un vocero de la compañía lo llamó "un error claramente inaceptable" y dijo que el software de recomendaciones involucrado fue desconectado.

"Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas", respondió Facebook al ser consultada por la agencia de medios AFP.

"Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo".

Más polémica para Facebook

El programa de reconocimiento facial ha sido duramente criticado por defensores de derechos civiles, quienes señalan problemas de precisión particularmente con personas que no son blancas.

Usuarios de Facebook en días recientes vieron el video de un tabloide británico protagonizado por afrodescendientes y recibieron un aviso generado automáticamente preguntando si querían "seguir viendo videos sobre primates", de acuerdo con el diario The New York Times.

Darci Groves, antiguo jefe de diseño de contenido de Facebook, compartió una captura de pantalla de la recomendación.

"Este aviso de 'seguir viendo' es inaceptable", escribió Groves en Twitter. "Esto es atroz".

Con información de AFP

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.

Video recomendado

Tags

Más sobre Facebook

Lo más leído

Contenido promocionado

Taboola
SIGUIENTE NOTA