Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Informes RPP
La inflación dejó de ser una preocupación
EP 1235 • 04:07
Entrevistas ADN
El Tribunal Constitucional no declaró inocente al prófugo Vladimir Cerrón, precisó abogado
EP 1768 • 17:57
El poder en tus manos
EP138 | INFORMES | ¿Cómo avanza la participación política de las mujeres en América latina?
EP 138 • 03:42

Miles de expertos en debate por polémica Inteligencia Artificial que predice crímenes por el rostro

Esta herramienta puede terminar siendo
Esta herramienta puede terminar siendo "tremendamente injusta" contra personas afrodescendientes. | Fuente: Difusión

En medio del contexto social contra la discriminación, una IA es motivo de polémica en la comunidad científica.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Un grupo de 1 700 expertos científicos y humanísticos ha condenado el uso de la Inteligencia Artificial (IA) en el desarrollo de algoritmos para predecir crímenes basándose en datos biométricos, como el rostro de las personas, algo que alegan que reproduce injusticias sociales y puede perjudicar a las personas afrodescendientes.

Esta carta se dirige a la editorial Springer y llega como respuesta al anuncio de la publicación de un artículo académico titulado 'Una red neuronal profunda para predecir la criminalidad utilizando el procesamiento de imagen'.

En este artículo, aún no publicado, unos investigadores de la Universidad de Harrisburg (Estados Unidos) aseguran haber desarrollado un software capaz de predecir la "criminalidad" analizando datos biométricos como los de reconocimiento facial.

El sistema está destinado para usarse por la policía y la justicia para prevenir crímenes antes de que sucedan y tiene "una precisión del 80 por ciento y sin ningún sesgo racial", según afirman sus autores.

Piden que no se publique

No obstante, un grupo de 1.700 expertos ha formado una coalición que pide a Springer que no publique el estudio, que revise los criterios que utilizó para evaluarlo y que condene el uso de tecnologías para predecir la criminalidad.

Los firmantes son académicos de ámbitos diversos, incluyendo estadistas, especialistas en inteligencia artificial y aprendizaje automático, juristas, sociólogos, historiadores, comunicadores y antropólogos.

La coalición de científicos defiende que el uso de algoritmos para predecir la criminalidad basándose en datos biométricos y expedientes criminales "están basados en premisas científicas defectuosas, e investigaciones y métodos "desacreditados" a lo largo de los años.

Entre los referentes desacreditados que citan los autores de la iniciativa se encuentra Cesare Lombroso, un criminólogo italiano del siglo XIX, que utilizaba la frenología para estudiar a las comunidades pobres y su propensión a cometer determinados crímenes.

"Estos métodos desacreditados continúan apareciendo, a menudo bajo el amparo de nuevos y supuestamente neutrales métodos estadísticos como el aprendizaje automático", como denuncia la iniciativa, que alega que su uso contribuye a "reproducir injusticias sociales y causa daño real" a comunidades marginadas.

En los últimos años, los gobiernos han utilizado la IA para funciones relacionadas con la justicia como el reconocimiento facial, una práctica denunciada por miembros de la comunidad negra por el sesgo racial, aunque "estas voces continúan siendo marginalizadas" con los avances en estas tecnologías, según concluye la coalición. 

(Con información de Europa Press)

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA