Un estudio encontró prejuicios raciales en los sistemas de reconocimiento de voz. | Fuente: Getty

Los asistentes virtuales Siri, Alexa o el Asistente de Google son utilizados por millones de usuarios para apoyarse en sus tareas cotidianas. Sin embargo, un nuevo estudio demuestra que estos sistemas de reconocimientos de voz tienen prejuicios raciales, ya que transcriben con menos errores las voces de personas blancas.

La investigación analizó los sistemas de inteligencia artificial de Apple, Google, Amazon, IBM y Microsoft cuando deben reconocer las voces de personas blancas y afroamericanas. En el último caso, el margen de errores en las transcripciones era mayor.

El equipo detrás del estudio utilizó los sistemas de reconocimiento de voz con casi 20 horas de entrevistas, debido a que buscaban transcribir 42 entrevistados blancos y 73 afroamericanos. Los resultados arrojaron que la tasa de error promedio para los blancos fue de 19%, mientras que en afroamericanos fue de 35%.

“Estas son probablemente las cinco compañías más grandes que hacen reconocimiento de voz, y todas están cometiendo el mismo tipo de error”, refirió John Rickford, quien forma parte de la investigación sobre el reconocimiento de voz de asistentes virtuales.

En ese sentido, el estudio complementa otra investigación realizada anteriormente sobre el reconocimiento facial de las IA. En este se detalló que también funcionan bajo un sesgo racial, debido a que identifica con errores a las personas con un tono de piel más oscuro. Este funcionamiento erróneo se debe a que el conjunto de datos se basa en personas blancas.

“Este es otro ejemplo de sesgo de muestreo que demuestra el impacto discriminatorio en ciertas comunidades. En comparación con las formas 'tradicionales' de discriminación. La discriminación automatizada es más abstracta y poco intuitiva, sutil, intangible y difícil de detectar”, explicó la especialista en inteligencia artificial Sandra Wachter a Business Insider.

Así es como la discriminación no solo se encuentra en entornos sociales, sino que aparecen sutilmente en los sistemas virtuales de inteligencia artificial. Ante ello, la tarea de las empresas debería ser actuar para eliminar los prejuicios en herramientas que sirven a todo el mundo, sin importar su color de piel o género.

¿Qué opinas?