La nueva herramienta de generación de imágenes de Apple reproduce estereotipos raciales asociados a profesiones, deportes y nivel socioeconómico.
Apple enfrenta una nueva controversia en el campo de la inteligencia artificial tras el descubrimiento de sesgos raciales significativos en su reciente aplicación Image Playground, una herramienta diseñada para generar imágenes estilo caricatura a partir de fotografías reales y descripciones textuales.
A pesar de las múltiples restricciones de seguridad implementadas por Apple, incluyendo la limitación a estilos caricatura y el enfoque en rostros para evitar deepfakes, una investigación reciente del especialista en IA Jochem Gietema ha revelado que la aplicación reproduce y amplifica estereotipos raciales preocupantes.
Apple Image Playground: ¿Qué tipo de imágenes genera?

Jochem Gietema usó esta imagen como base para generar las imágenes con la IA de Apple.Fuente: Jochem Gietema
El estudio demuestra cómo la app modifica sistemáticamente los rasgos faciales y el tono de piel de las personas según los descriptores utilizados. Por ejemplo, al emplear palabras como "affluent" (adinerado), "successful" (exitoso) o "investment banker" (banquero de inversión), la aplicación tiende a aclarar el tono de piel. En contraste, términos como "poor" (pobre) o "destitute" (indigente) resultan en tonos de piel más oscuros.

Los resultados de comparar "rico" con "pobre" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar "granjero" con "banquero de inversión" en Apple Image Playground.Fuente: Jochem Gietema
Los sesgos se extienden también a categorías como deportes, música y danza. Cuando se utiliza la palabra "basketball" (baloncesto) o "rap", la app oscurece la piel del sujeto, mientras que descriptores como "classical music" (música clásica) o "ballet" mantienen tonos más claros, perpetuando estereotipos raciales arraigados.

Los resultados de comparar "ballet" con "break dance" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar "rap" con "música clásica" en Apple Image Playground.Fuente: Jochem Gietema

Los resultados de comparar "esquiar" con "basketball" en Apple Image Playground.Fuente: Jochem Gietema
Esta situación se suma a una preocupación más amplia en la industria tecnológica sobre los sesgos en los modelos de generación de imágenes. Un paper reciente titulado "Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale" confirma que estos problemas no son exclusivos de Apple, sino que representan un desafío sistémico en la industria de la IA.
La revelación es particularmente significativa considerando los esfuerzos previos de Apple por posicionarse como líder en ética y seguridad en IA. Image Playground fue diseñada específicamente con restricciones para prevenir usos inadecuados, incluyendo la prohibición de usar nombres de celebridades y palabras negativas en las descripciones.
Los expertos señalan que, si bien estos sesgos son preocupantes, existe un lado positivo: los algoritmos sesgados son más fáciles de corregir que los prejuicios humanos. Apple ya está tomando medidas al respecto, como lo demuestra su reciente paper en NeurIPS '24 sobre la evaluación de sesgos de género en modelos de lenguaje.
Este incidente se produce en un momento de intenso escrutinio público sobre los sesgos en la IA, siguiendo controversias similares como la reciente disculpa de Google por su modelo Gemini, que generó representaciones históricamente inexactas en un intento por promover la diversidad.
Comparte esta noticia