Google ha anunciado en su evento I/O para desarrolladores que viene implementando procesos computacionales para representar fielmente los distintos matices de la raza humana y representar a los individuos con tonos más reales.
Pese a tener una enorme base de usuarios con lentes que superan los 40 megapíxeles en modelos de gama media, la representación fidedigna de los colores y matices de la variada raza humana suele ser un reto, pues muchas priorizan los filtros para aclarar la piel o proponen un proceso computacional que “mejore” facciones en torno a pre-ajustes de belleza. Google ha decidido ir un paso más allá con los procesos computacionales, y ha anunciado un trabajo con expertos para establecer mejores criterios en la fotografía computacional.
Como parte de los anuncios, Google ha señalado que el tono de piel, por un tema de inclusión, es uno de los elementos por mejorar en los algoritmos que trabajan en el proceso de imagen: “No es cambiar a la gente sino la manera en que las apps funcionan”, señaló un ejecutivo de Google durante el evento.
La empresa de Mountain View ha anunciado un el trabajo con un grupo de expertos que han aportado a perfilar los detalles naturales del rostro: el ajuste de la iluminación en rostros de personas de tez oscura que tiende a volver azul los destellos, un mejor trabajo en la identificación de bordes en el cabello y una reducción del ruido en entornos menos iluminados.
El propósito de Google es que este aprendizaje pueda ser aplicado en el ecosistema Android y que se unifiquen estos factores en los sistemas que las constructoras puedan montar en los futuros equipos.
Comparte esta noticia