Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Metadata
METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)
EP 245 • 27:02
Nutriagenda
EP29 | Qué debemos comer para cuidar los riñones
EP 29 • 39:14
Reflexiones del evangelio
Domingo 19 de mayo | (Pentecostés) - "Exhaló su aliento sobre ellos y les dijo: Reciban el Espíritu Santo; a quienes les perdonen los pecados, les quedan perdonados; a quienes se los retengan, les quedan retenidos"
EP 637 • 12:30

OpenAI usó trabajadores africanos a los que pagaba 2 dólares para mejorar ChatGPT

El contenido filtrado era de índole hasta
El contenido filtrado era de índole hasta "ilegal".

Los trabajadores kenianos cobraban 2 dólares por hora para tratar que ChatGPT fuera menos tóxico: ellos categorizaban y filtraban el contenido sexual abusivo y hasta ilegal de internet. 

La startup de inteligencia artificial OpenAI se encuentra en el ojo de la tormenta luego de que la revista TIME reportara el ‘abuso laboral’ que realizaba con trabajadores africanos para mejorar su famoso software ChatGPT.

De acuerdo con un reciente informe, trabajadores de Kenia recibían menos de 2 dólares por hora para tratar de pulir el lenguaje del IA eliminado los discursos de odio.

OpenAI y las denuncias

El equipo de OpenAI ya había logrado el éxito con el GPT-3, una inteligencia artificial capaz de unir oraciones y brindárselas a los usuarios. Sin embargo, también añadía discursos violentistas, sexistas y racistas, lo que provocaron que cayera en la polémica.

Ante ello, la compañía empezó un nuevo proyecto para evitar este mismo comportamiento con ChatGPT y eliminar los sesgos y prejuicios del contenido de internet con el que alimenta sus conocimientos.

Para eso, OpenAI subcontrató a una empresa en Kenia en noviembre de 2021. A esta compañía se le entregó miles de fragmento de texto con contenido “terrible” como abuso sexual infantil, bestialidad, asesinato, suicidio y tortura, todo con el fin de crear una herramienta que detecte estos signos en los textos creados por ChatGPT y filtre el contenido antes de que llegue como respuesta al usuario.

La empresa se llamaba Sama, que también cuenta con sede en San Francisco, la cual utilizó trabajadores de Kenia, Uganda e India para etiquetar datos de gigantes tecnológicos como Google y Microsoft.

TIME señala que revisó documentos internos entre Sama y OpenAI para darse cuenta que los saldos de los trabajadores eran de 1,32 a 2 dólares por hora. Solo para recordar, OpenAI está siendo valorada actualmente en 29 mil millones de dólares.

Condiciones inhumanas

El pago no refleja la cantidad de contenidos obsceno y traumatizante por el que tuvieron que pasar los trabajadores para filtrar estos contenidos.

“A pesar del papel fundamental que desempeñan estos profesionales de enriquecimiento de datos, un creciente cuerpo de investigación revela las condiciones laborales precarias que enfrentan estos trabajadores”, dice Partnership on AI, una coalición de organizaciones de inteligencia artificial a la que pertenece OpenAI. “Este puede ser el resultado de los esfuerzos por ocultar la dependencia de IA de esta gran fuerza laboral al celebrar las ganancias de eficiencia de la tecnología. Fuera de la vista también está fuera de la mente”.

Los documentos revisados ​​por TIME muestran que OpenAI firmó tres contratos por un valor total aproximado de 200 mil dólares con Sama a fines de 2021 para etiquetar descripciones textuales de abuso sexual, discurso de odio y violencia. Alrededor de tres docenas de trabajadores se dividieron en tres equipos, uno centrado en cada tema. Tres empleados le dijeron al medio que se esperaba que leyeran y etiquetaran entre 150 y 250 pasajes de texto por turno de nueve horas. Esos fragmentos pueden oscilar entre unas 100 palabras y más de 1000. Los trabajadores solo podrían asistir a sesiones psicológicas por los temas leídos (citan explícitamente casos de zoofilia y más) en grupos, no de forma personal.

Los contratos establecían que OpenAI pagaría una tarifa por hora de 12.5 dólares a Sama por el trabajo. Un portavoz señaló que ese precio “cubre también otros gastos como infraestructura, salario y beneficios para asociados y analistas de control de calidad”. Un portavoz de OpenAI dijo en un comunicado que la compañía no emitió ningún objetivo de productividad y que Sama era responsable de administrar las disposiciones de pago y salud mental de los empleados.

El problema llegó a su punto máximo cuando en febrero de 2022, OpenAI entregó imágenes del mismo contenido para que Sama los clasifique.

 

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA