Los generadores de imágenes como DALL-E y Midjourney siguen mejorando y cada vez es más complicado saber si una foto fue creada con IA o si es real.
Las imágenes generadas por inteligencia artificial han conmocionado al mundo entero ya que, en los últimos días, supuestas fotografías en las que se muestran al Papa Francisco con un elegante brillante blanco o al ex presidente estadounidense Donald Trump siendo arrestado por la Policía, todas con un nivel de detalle que ha confundido a millones de personas por lo mucho que se acerca a la realidad.
Estas imágenes fueron creadas mediante sistemas basados en inteligencia artificial que tienen la capacidad de procesar descripciones textuales de un usuario para generar resultados impresionantes. Si bien plataformas como DALL-E, Midjourney y Stable Diffusion empezaron con diversos fallos como añadir demasiados dedos a las manos de sus creaciones, el límite entre la realidad y la ficción pasó a hacerse más imperceptible con cada nueva versión disponible.
¿Qué hacer cuando lo real y lo ficticio son tan parecidos?
Los generadores de imágenes mediante IA no producen los mismos resultados y, dependiendo de qué plataforma sea, puede resultar más o menos convincente. No obstante, las últimas actualizaciones de sistemas como Midjourney V5 alcanzan un nivel que los hace difíciles -si no imposibles- de distinguir de las fotografías reales, como señalan algunos expertos.
"Es asombroso lo que son capaces de hacer los generadores de imágenes de inteligencia artificial. Hubo un salto gigantesco en el último año más o menos en cuanto a capacidades de generación de imágenes", afirma S. Shyam Sundar, investigador de la Universidad Estatal de Pensilvania que estudia el impacto psicológico de las tecnologías de los medios de comunicación.
Sundar señala que algunos de los factores que explican este salto en la capacidad de dichos sistemas son el mayor número de imágenes disponibles para entrenar a su IA, así como los avances en la infraestructura de procesamiento de datos y las interfaces que hacen que la tecnología sea accesible a los usuarios habituales de Internet. El resultado es que las imágenes generadas artificialmente están por todas partes y pueden ser "casi imposibles de detectar", según afirma el experto.
Un experimento demostró la capacidad de engaño de la IA. Sophie Nightingale, psicóloga de la Universidad de Lancaster, Inglaterra, especializada en tecnología digital, fue coautora de un estudio en el que se comprobó si voluntarios en línea podían distinguir entre retratos tipo carné creados por un sistema de IA llamado StyleGAN2 e imágenes reales. Los resultados fueron desalentadores, incluso a finales de 2021, cuando los investigadores llevaron a cabo el experimento.
"De media, la gente estaba más o menos en el rendimiento del azar. Básicamente, estamos en un punto en el que es tan realista que la gente no puede percibir de forma fiable la diferencia entre esos rostros sintéticos y los rostros reales, siendo estos rostros de personas que realmente existen", dijo Nightingale. Aunque los humanos proporcionaron cierta ayuda a la IA clasificando las imágenes generadas por StyleGAN2 para seleccionar sólo las más realistas, la autora afirma que alguien que quisiera utilizar un programa de este tipo con fines nefastos probablemente haría lo mismo.
Inteligencia artificial para distinguir a la inteligencia artificial
Irónicamente, a medida que la tecnología de generación de imágenes sigue mejorando, lo mejor que los seres humanos pueden usar para no ser engañados por un sistema de IA puede ser otro sistema de IA, uno que ya esté entrenado para detectar imágenes artificiales. Los expertos afirman que, a medida que avanza la generación de imágenes por IA, los algoritmos están mejor equipados que los humanos para detectar algunas de las diminutas particularidades a escala de píxel presentes en las creaciones de estos robots.
Según Yong Jae Lee, informático de la Universidad de Wisconsin-Madison, la creación de estos programas para reconocer IA funciona igual que cualquier otra tarea de aprendizaje automático. "Se recopila un conjunto de datos de imágenes reales y otro de imágenes generadas por la IA. Luego puedes entrenar un modelo de aprendizaje automático para distinguir las dos", explica Lee.
Pese a esto, dichos sistemas tienen importantes deficiencias. La mayoría de estos algoritmos se entrenan con imágenes de un generador de IA específico y son incapaces de identificar falsificaciones producidas por algoritmos diferentes. La mayoría de los detectores carecen también de las interfaces fáciles de usar que han tentado a tanta gente a probar los sistemas de IA generativa.
Además, los detectores de IA siempre tendrán que esforzarse por seguir el ritmo de los generadores de imágenes, algunos de los cuales incorporan algoritmos de detección similares, pero los utilizan para aprender a hacer que sus resultados falsos sean menos detectables. "La batalla entre los sistemas de IA que generan imágenes y los sistemas de IA que detectan las imágenes generadas por IA va a ser una carrera armamentística. No veo que ningún bando vaya a ganar pronto", afirma Wael AbdAlmageed, profesor asociado de investigación en informática de la Universidad del Sur de California.
Entonces ¿qué hacemos?
Es evidente que, ante el avance de este tipo de tecnologías, son pocas las estrategias que tenemos para hacer frente a un aluvión de imágenes creadas de la nada o modificadas mediante IA. Sin embargo, aun podemos agarrarnos de algunas condiciones para salir con éxito de una inspección rutinaria de fotos. Estas son nuestras recomendaciones:
Revisa el post. Fíjate en el título, la descripción o los mismos comentarios de los usuarios cuando una foto así aparezca en Instagram o Twitter. Si bien no podemos dar por sentada una discusión en redes, esto podría ayudarnos a detectar una interacción con el creador de la foto o un ojo más especializado. Esto incluye la revisión del perfil, si es necesario, para identificar el tipo de contenido que comparte.
Mira marcas de agua. Algunos servicios añaden marcas dentro de la imagen, con cierta notoriedad para que el producto final pueda diferenciarse. DALL-E 2, por ejemplo, añade cuadrados de colores muy pequeños en una de las esquinas. Sin embargo, Midjourney no lo hace. En este caso, debes remitirte a la revisión de detalles gráficos que puedan “firmar” la imagen.
Las anomalías. Esto es clave en fotos muy populares creadas con Midjourney u otro tipo de entornos. A la distancia, una imagen puede ser muy real, pero es importante analizar de cerca ciertos detalles que la IA no logra definir con claridad. Es más evidente en textos – por alguna razón, a las distintas redes neuronales se les complica el desarrollo de una camiseta con mensajes o carteles con letras -, pero el desenfoque en el fondo, algunas formas sobre producidas, gafas que no son colocadas de manera coherente, el cabello, los dientes, manos y brazos, aretes que no combinan, fondos desequilibrados. Todo sirve.
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.
Comparte esta noticia