Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
RPP Data
El presupuesto en salud aumenta desde hace más de 20 años, pero: ¿por qué no mejora la atención?
EP 238 • 03:07
Reflexiones del evangelio
Jueves 21 de noviembre | "Jesús, al ver la ciudad, le dijo, llorando: ¡Si al menos tú comprendieras en este día lo que conduce a la paz!"
EP 823 • 12:13
Entrevistas ADN
Gobierno dice que hace estudio sobre tipos de informalidad en el país
EP 1752 • 21:40

Facebook etiqueta erróneamente a afrodescendientes como 'primates'

Captura de las sugerencia de la IA de Facebook ante el video de un afrodescendiente.
Captura de las sugerencia de la IA de Facebook ante el video de un afrodescendiente. | Fuente: Twitter

El algoritmo de reconocimiento facial de Facebook confundió a afrodescendientes con primates, causando polémica. La compañía se disculpó ante ello. 

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Facebook anunció el viernes que deshabilitó una función de recomendación de tópicos luego que asoció erróneamente hombres afrodescendientes con "primates" en un video publicado de la red social

Un vocero de la compañía lo llamó "un error claramente inaceptable" y dijo que el software de recomendaciones involucrado fue desconectado.

"Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas", respondió Facebook al ser consultada por la agencia de medios AFP.

"Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando y así poder investigar la causa y evitar que esto pase de nuevo".

Más polémica para Facebook

El programa de reconocimiento facial ha sido duramente criticado por defensores de derechos civiles, quienes señalan problemas de precisión particularmente con personas que no son blancas.

Usuarios de Facebook en días recientes vieron el video de un tabloide británico protagonizado por afrodescendientes y recibieron un aviso generado automáticamente preguntando si querían "seguir viendo videos sobre primates", de acuerdo con el diario The New York Times.

Darci Groves, antiguo jefe de diseño de contenido de Facebook, compartió una captura de pantalla de la recomendación.

"Este aviso de 'seguir viendo' es inaceptable", escribió Groves en Twitter. "Esto es atroz".

Con información de AFP

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.

Tags

Lo último en Facebook

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA