Desde un iPhone a 2 dólares, hasta Tom Hanks promocionando una clínica dental, la inteligencia artificial puede ser un grave problema si es que usado maliciosamente en internet.
El youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene casi 200 millones de seguidores, y el actor ganador de dos óscar Tom Hanks tienen algo en común: los dos han sido blanco este mes de estafas difundidas en las redes sociales que usan una inteligencia artificial (IA) generativa conocida como deepfake.
En los deepfakes se puede manipular el rostro de una persona para que actúe y diga lo que el creador quiera.
En el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual.
Un iPhone por 2 dólares
En el caso de Donaldson, youtuber de 25 años que es conocido por regalar a sus suscriptores casas, automóviles y dinero en general y es extremadamente popular entre los más jóvenes, la estafa usó deepfake para crear un vídeo en el que el creador de contenido decía que regalaba el último modelo de iPhone por 2 dólares.
"Si estás viendo este vídeo, eres una de las 10 mil personas afortunadas que recibirán un iPhone 15 Pro por sólo 2 dólares. Soy MrBeast y voy a realizar el sorteo de iPhone 15 más grande del mundo. Haz clic en el enlace a continuación para reclamar el tuyo ahora", decía el deepfake de Donaldson difundido en TikTok, en un vídeo que ya fue retirado de la plataforma.
Sin embargo, la letra pequeña de ese enlace indicaba que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6,95 dólares (que se puede confundir con un gasto de envío) y luego un pago mensual indefinido de 139,67 dólares.
Los famosos alertan a sus seguidores
"Mucha gente está recibiendo este anuncio fraudulento mío de deepfake... ¿Están las plataformas de redes sociales preparadas para manejar el aumento de los deepfakes de inteligencia artificial? Este es un problema grave", escribió en su cuenta de X (antes Twitter) Donaldson.
Según cuenta Satnam Narang, ingeniero principal de investigación de Tenable y conocido como el "susurrador de las estafas en redes sociales", el vídeo falso de Donaldson puede pasar por creíble si no se presta especial atención, pero no es perfecto.
"Si se mira su labio superior y su falta de movimiento, se nota que no es natural", relata el experto.
Hanks también alertó a sus seguidores en Instagram que él "no tenía nada que ver" con un vídeo "generado por IA" en el que "promociona un plan dental".
El protagonista de "Forrest Gump" ha expresado en varias ocasiones su preocupación por el uso de la IA en el cine y la televisión.
No obstante, se ha servido de esta tecnología en cintas como la película animada "The Polar Express", que en 2004 usó imágenes generadas por computadora (CGI) para crear su personaje, o su último trabajo más reciente, "A Man Called Otto ", para parecer más joven en algunas escenas.
Narang asegura que han sido muchos los famosos que han sido diana de esta manipulación este año, como fue el caso de Elon Musk, una de las personas más ricas del mundo, en un vídeo que promocionaba criptomonedas.
Un quebradero de cabeza para las redes
La mayoría de las redes sociales establecen en su reglamento que el contenido sintético o manipulado que se publique debe ser etiquetado como tal, pero no siempre son capaces de detectar y eliminar las publicaciones que se saltan estas normas.
Lo más complejo de la situación es que no existen máquinas que sean capaces de señalar rápidamente y a ciencia cierta que un contenido (ya sea un texto, una foto o un vídeo) haya sido generado con inteligencia artificial.
Lo cual es peligroso no solo por las posibles estafas, sino también por sus efectos sobre la desinformación en general, sobre todo si se trata de conflictos bélicos o elecciones.
En tanto, según Narang, lo mejor es que los usuarios de redes siempre desconfíen, investiguen el perfil que publica la información -incluso si tienen el símbolo de cuenta verificada- y lean siempre la letra pequeña.
Con información de EFE
Te recomendamos
Comparte esta noticia