Buscar
Reproduciendo
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
El Club de la Green Card
Licencias en Miami-Dade: menos filas, más rapidez
EP 159 • 01:10
Reflexiones del evangelio
Miércoles 19 de febrero | "Le puso otra vez las manos en los ojos… y el hombre vio. Estaba curado y veía con toda claridad"
EP 885 • 11:43
Entrevistas ADN
Vocero de la Contraloría confirma que patrimonio de la presidenta Boluarte aumentó en más 600 mil soles en tres años
EP 1793 • 12:22

Apple Image Playground: la IA que genera imágenes revela sus sesgos raciales

Las imágenes generadas por Apple varían radicalmente en su enfoque racial según el contexto.
Las imágenes generadas por Apple varían radicalmente en su enfoque racial según el contexto. | Fuente: Jochem Gietema

La nueva herramienta de generación de imágenes de Apple reproduce estereotipos raciales asociados a profesiones, deportes y nivel socioeconómico.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Apple enfrenta una nueva controversia en el campo de la inteligencia artificial tras el descubrimiento de sesgos raciales significativos en su reciente aplicación Image Playground, una herramienta diseñada para generar imágenes estilo caricatura a partir de fotografías reales y descripciones textuales.

A pesar de las múltiples restricciones de seguridad implementadas por Apple, incluyendo la limitación a estilos caricatura y el enfoque en rostros para evitar deepfakes, una investigación reciente del especialista en IA Jochem Gietema ha revelado que la aplicación reproduce y amplifica estereotipos raciales preocupantes.

Apple Image Playground: ¿Qué tipo de imágenes genera?

Jochem Gietema usó esta imagen como base para generar las imágenes con la IA de Apple.

Jochem Gietema usó esta imagen como base para generar las imágenes con la IA de Apple.Fuente: Jochem Gietema

El estudio demuestra cómo la app modifica sistemáticamente los rasgos faciales y el tono de piel de las personas según los descriptores utilizados. Por ejemplo, al emplear palabras como "affluent" (adinerado), "successful" (exitoso) o "investment banker" (banquero de inversión), la aplicación tiende a aclarar el tono de piel. En contraste, términos como "poor" (pobre) o "destitute" (indigente) resultan en tonos de piel más oscuros.

Los resultados de comparar

Los resultados de comparar "rico" con "pobre" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar

Los resultados de comparar "granjero" con "banquero de inversión" en Apple Image Playground.Fuente: Jochem Gietema

Los sesgos se extienden también a categorías como deportes, música y danza. Cuando se utiliza la palabra "basketball" (baloncesto) o "rap", la app oscurece la piel del sujeto, mientras que descriptores como "classical music" (música clásica) o "ballet" mantienen tonos más claros, perpetuando estereotipos raciales arraigados.

Los resultados de comparar

Los resultados de comparar "ballet" con "break dance" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar

Los resultados de comparar "rap" con "música clásica" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar

Los resultados de comparar "esquiar" con "basketball" en Apple Image Playground.Fuente: Jochem Gietema

Esta situación se suma a una preocupación más amplia en la industria tecnológica sobre los sesgos en los modelos de generación de imágenes. Un paper reciente titulado "Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale" confirma que estos problemas no son exclusivos de Apple, sino que representan un desafío sistémico en la industria de la IA.

La revelación es particularmente significativa considerando los esfuerzos previos de Apple por posicionarse como líder en ética y seguridad en IA. Image Playground fue diseñada específicamente con restricciones para prevenir usos inadecuados, incluyendo la prohibición de usar nombres de celebridades y palabras negativas en las descripciones.

Los expertos señalan que, si bien estos sesgos son preocupantes, existe un lado positivo: los algoritmos sesgados son más fáciles de corregir que los prejuicios humanos. Apple ya está tomando medidas al respecto, como lo demuestra su reciente paper en NeurIPS '24 sobre la evaluación de sesgos de género en modelos de lenguaje.

Este incidente se produce en un momento de intenso escrutinio público sobre los sesgos en la IA, siguiendo controversias similares como la reciente disculpa de Google por su modelo Gemini, que generó representaciones históricamente inexactas en un intento por promover la diversidad.

Te recomendamos

Metadata

METADATA E266 | ¿Qué nos traen las NVIDIA GeForce RTX Serie 50? Los gama media de Xiaomi se renuevan, despidos en Meta, nuevo iPhone y BYD amenazando a Tesla

¡Bienvenidos a METADATA, el podcast de Tecnología de RPP!  La nueva generación de tarjetas de video de NVIDIA ya están en el Perú y conversamos con Alexandre Ziebert, gerente Técnico de Marketing de NVIDIA GeForce LATAM. También hablamos sobre lo nuevo de la gama media de Xiaomi y otros dispositivos que estamos probando. El ambiente tecnológico se ha remecido por una ola de despidos en Meta y BYD con su apuesta para competir con Tesla.

Metadata
00:00 · 00:00
Alberto Nishiyama

Alberto Nishiyama Periodista de tecnología

Maestro en Marketing y Comunicación Digital en la UPC y Bachiller en Ciencias de la Comunicación en la USMP. Especialista en temas de tecnología, innovación y videojuegos. Más de 10 años de experiencia profesional.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA