Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Informes RPP
La inflación dejó de ser una preocupación
EP 1235 • 04:07
Entrevistas ADN
El Tribunal Constitucional no declaró inocente al prófugo Vladimir Cerrón, precisó abogado
EP 1768 • 17:57
El poder en tus manos
EP138 | INFORMES | ¿Cómo avanza la participación política de las mujeres en América latina?
EP 138 • 03:42

OpenAI usó trabajadores africanos a los que pagaba 2 dólares para mejorar ChatGPT

El contenido filtrado era de índole hasta
El contenido filtrado era de índole hasta "ilegal".

Los trabajadores kenianos cobraban 2 dólares por hora para tratar que ChatGPT fuera menos tóxico: ellos categorizaban y filtraban el contenido sexual abusivo y hasta ilegal de internet. 

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

La startup de inteligencia artificial OpenAI se encuentra en el ojo de la tormenta luego de que la revista TIME reportara el ‘abuso laboral’ que realizaba con trabajadores africanos para mejorar su famoso software ChatGPT.

De acuerdo con un reciente informe, trabajadores de Kenia recibían menos de 2 dólares por hora para tratar de pulir el lenguaje del IA eliminado los discursos de odio.

OpenAI y las denuncias

El equipo de OpenAI ya había logrado el éxito con el GPT-3, una inteligencia artificial capaz de unir oraciones y brindárselas a los usuarios. Sin embargo, también añadía discursos violentistas, sexistas y racistas, lo que provocaron que cayera en la polémica.

Ante ello, la compañía empezó un nuevo proyecto para evitar este mismo comportamiento con ChatGPT y eliminar los sesgos y prejuicios del contenido de internet con el que alimenta sus conocimientos.

Para eso, OpenAI subcontrató a una empresa en Kenia en noviembre de 2021. A esta compañía se le entregó miles de fragmento de texto con contenido “terrible” como abuso sexual infantil, bestialidad, asesinato, suicidio y tortura, todo con el fin de crear una herramienta que detecte estos signos en los textos creados por ChatGPT y filtre el contenido antes de que llegue como respuesta al usuario.

La empresa se llamaba Sama, que también cuenta con sede en San Francisco, la cual utilizó trabajadores de Kenia, Uganda e India para etiquetar datos de gigantes tecnológicos como Google y Microsoft.

TIME señala que revisó documentos internos entre Sama y OpenAI para darse cuenta que los saldos de los trabajadores eran de 1,32 a 2 dólares por hora. Solo para recordar, OpenAI está siendo valorada actualmente en 29 mil millones de dólares.

Condiciones inhumanas

El pago no refleja la cantidad de contenidos obsceno y traumatizante por el que tuvieron que pasar los trabajadores para filtrar estos contenidos.

“A pesar del papel fundamental que desempeñan estos profesionales de enriquecimiento de datos, un creciente cuerpo de investigación revela las condiciones laborales precarias que enfrentan estos trabajadores”, dice Partnership on AI, una coalición de organizaciones de inteligencia artificial a la que pertenece OpenAI. “Este puede ser el resultado de los esfuerzos por ocultar la dependencia de IA de esta gran fuerza laboral al celebrar las ganancias de eficiencia de la tecnología. Fuera de la vista también está fuera de la mente”.

Los documentos revisados ​​por TIME muestran que OpenAI firmó tres contratos por un valor total aproximado de 200 mil dólares con Sama a fines de 2021 para etiquetar descripciones textuales de abuso sexual, discurso de odio y violencia. Alrededor de tres docenas de trabajadores se dividieron en tres equipos, uno centrado en cada tema. Tres empleados le dijeron al medio que se esperaba que leyeran y etiquetaran entre 150 y 250 pasajes de texto por turno de nueve horas. Esos fragmentos pueden oscilar entre unas 100 palabras y más de 1000. Los trabajadores solo podrían asistir a sesiones psicológicas por los temas leídos (citan explícitamente casos de zoofilia y más) en grupos, no de forma personal.

Los contratos establecían que OpenAI pagaría una tarifa por hora de 12.5 dólares a Sama por el trabajo. Un portavoz señaló que ese precio “cubre también otros gastos como infraestructura, salario y beneficios para asociados y analistas de control de calidad”. Un portavoz de OpenAI dijo en un comunicado que la compañía no emitió ningún objetivo de productividad y que Sama era responsable de administrar las disposiciones de pago y salud mental de los empleados.

El problema llegó a su punto máximo cuando en febrero de 2022, OpenAI entregó imágenes del mismo contenido para que Sama los clasifique.

 

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA