Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Presidenta busca obstruir a la justicia, señaló exministro Mariano González
EP 1693 • 13:04
Detector de Mentiras
Detector de Mentiras: Las antenas de telefonía móvil no hacen daño a la salud
EP 52 • 01:34
Informes RPP
Más de 3 millones de peruanos se convirtieron en pobres en los últimos 5 años
EP 1129 • 04:51

Miles de expertos en debate por polémica Inteligencia Artificial que predice crímenes por el rostro

Esta herramienta puede terminar siendo
Esta herramienta puede terminar siendo "tremendamente injusta" contra personas afrodescendientes. | Fuente: Difusión

En medio del contexto social contra la discriminación, una IA es motivo de polémica en la comunidad científica.

Un grupo de 1 700 expertos científicos y humanísticos ha condenado el uso de la Inteligencia Artificial (IA) en el desarrollo de algoritmos para predecir crímenes basándose en datos biométricos, como el rostro de las personas, algo que alegan que reproduce injusticias sociales y puede perjudicar a las personas afrodescendientes.

Esta carta se dirige a la editorial Springer y llega como respuesta al anuncio de la publicación de un artículo académico titulado 'Una red neuronal profunda para predecir la criminalidad utilizando el procesamiento de imagen'.

En este artículo, aún no publicado, unos investigadores de la Universidad de Harrisburg (Estados Unidos) aseguran haber desarrollado un software capaz de predecir la "criminalidad" analizando datos biométricos como los de reconocimiento facial.

El sistema está destinado para usarse por la policía y la justicia para prevenir crímenes antes de que sucedan y tiene "una precisión del 80 por ciento y sin ningún sesgo racial", según afirman sus autores.

Piden que no se publique

No obstante, un grupo de 1.700 expertos ha formado una coalición que pide a Springer que no publique el estudio, que revise los criterios que utilizó para evaluarlo y que condene el uso de tecnologías para predecir la criminalidad.

Los firmantes son académicos de ámbitos diversos, incluyendo estadistas, especialistas en inteligencia artificial y aprendizaje automático, juristas, sociólogos, historiadores, comunicadores y antropólogos.

La coalición de científicos defiende que el uso de algoritmos para predecir la criminalidad basándose en datos biométricos y expedientes criminales "están basados en premisas científicas defectuosas, e investigaciones y métodos "desacreditados" a lo largo de los años.

Entre los referentes desacreditados que citan los autores de la iniciativa se encuentra Cesare Lombroso, un criminólogo italiano del siglo XIX, que utilizaba la frenología para estudiar a las comunidades pobres y su propensión a cometer determinados crímenes.

"Estos métodos desacreditados continúan apareciendo, a menudo bajo el amparo de nuevos y supuestamente neutrales métodos estadísticos como el aprendizaje automático", como denuncia la iniciativa, que alega que su uso contribuye a "reproducir injusticias sociales y causa daño real" a comunidades marginadas.

En los últimos años, los gobiernos han utilizado la IA para funciones relacionadas con la justicia como el reconocimiento facial, una práctica denunciada por miembros de la comunidad negra por el sesgo racial, aunque "estas voces continúan siendo marginalizadas" con los avances en estas tecnologías, según concluye la coalición. 

(Con información de Europa Press)

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA