Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
RPP Data
El presupuesto en salud aumenta desde hace más de 20 años, pero: ¿por qué no mejora la atención?
EP 238 • 03:07
Reflexiones del evangelio
Jueves 21 de noviembre | "Jesús, al ver la ciudad, le dijo, llorando: ¡Si al menos tú comprendieras en este día lo que conduce a la paz!"
EP 823 • 12:13
Entrevistas ADN
Gobierno dice que hace estudio sobre tipos de informalidad en el país
EP 1752 • 21:40

Un nuevo estudio encuentra prejuicios raciales en los sistemas de reconocimiento de voz

Un estudio encontró prejuicios raciales en los sistemas de reconocimiento de voz.
Un estudio encontró prejuicios raciales en los sistemas de reconocimiento de voz. | Fuente: Getty

Una investigación identificó un sesgo racial en los sistemas de reconocimiento de voz, debido a que los asistentes virtuales transcriben mejor las palabras de personas blancas.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Los asistentes virtuales Siri, Alexa o el Asistente de Google son utilizados por millones de usuarios para apoyarse en sus tareas cotidianas. Sin embargo, un nuevo estudio demuestra que estos sistemas de reconocimientos de voz tienen prejuicios raciales, ya que transcriben con menos errores las voces de personas blancas.

La investigación analizó los sistemas de inteligencia artificial de Apple, Google, Amazon, IBM y Microsoft cuando deben reconocer las voces de personas blancas y afroamericanas. En el último caso, el margen de errores en las transcripciones era mayor.

El equipo detrás del estudio utilizó los sistemas de reconocimiento de voz con casi 20 horas de entrevistas, debido a que buscaban transcribir 42 entrevistados blancos y 73 afroamericanos. Los resultados arrojaron que la tasa de error promedio para los blancos fue de 19%, mientras que en afroamericanos fue de 35%.

“Estas son probablemente las cinco compañías más grandes que hacen reconocimiento de voz, y todas están cometiendo el mismo tipo de error”, refirió John Rickford, quien forma parte de la investigación sobre el reconocimiento de voz de asistentes virtuales.

En ese sentido, el estudio complementa otra investigación realizada anteriormente sobre el reconocimiento facial de las IA. En este se detalló que también funcionan bajo un sesgo racial, debido a que identifica con errores a las personas con un tono de piel más oscuro. Este funcionamiento erróneo se debe a que el conjunto de datos se basa en personas blancas.

“Este es otro ejemplo de sesgo de muestreo que demuestra el impacto discriminatorio en ciertas comunidades. En comparación con las formas 'tradicionales' de discriminación. La discriminación automatizada es más abstracta y poco intuitiva, sutil, intangible y difícil de detectar”, explicó la especialista en inteligencia artificial Sandra Wachter a Business Insider.

Así es como la discriminación no solo se encuentra en entornos sociales, sino que aparecen sutilmente en los sistemas virtuales de inteligencia artificial. Ante ello, la tarea de las empresas debería ser actuar para eliminar los prejuicios en herramientas que sirven a todo el mundo, sin importar su color de piel o género.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA