El caso de una madre en Florida que entregó 15 mil dólares creyendo hablar con su hija revela los riesgos reales de esta tecnología cuando cae en manos equivocadas.
En la era de la IA, los fraudes tecnológicos están alcanzando niveles alarmantes de sofisticación. Ya no se trata solo de imágenes o videos falsificados. Ahora, la voz también puede ser replicada con una precisión inquietante, lo cual está siendo aprovechado por ciberdelincuentes para ejecutar estafas cada vez más creíbles.
Eso fue lo que vivió Sharon Brightwell, una mujer residente del condado de Hillsborough, Florida, quien el pasado 9 de julio fue víctima de una estafa de 15 mil dólares que involucró la clonación de voz mediante inteligencia artificial.
Todo comenzó con una llamada que, según relata, parecía provenir de su hija, April Munroe. La voz al otro lado de la línea era histérica, entre sollozos, y aseguraba haber atropellado a una mujer embarazada de siete meses mientras enviaba mensajes de texto al conducir. La voz e incluso el llanto, sonaba exactamente como su hija.
“Nadie podría convencerme de que no era ella. Conozco el llanto de mi hija”, dijo Sharon en una entrevista con el canal WFLA.
Acto seguido, un hombre que se hizo pasar por abogado de April le explicó que su hija estaba detenida y que debía pagar una fianza inmediata de 15 mil dólares en efectivo. Sharon, desesperada por ayudar a su hija, entregó el dinero en mano a un supuesto “representante legal” que fue hasta su casa.
Minutos después, recibió otra llamada en la que le informaron que la mujer embarazada había perdido al bebé y que ahora se necesitaban 30 mil dólares más para evitar una demanda. Fue en ese momento que una amiga cercana logró comunicarse con la verdadera April Munroe, quien estaba completamente a salvo. Sharon descubrió así que había sido víctima de una elaborada estafa tecnológica.
Inteligencia artificial al servicio del crimen
Este caso refleja una preocupante tendencia: el uso de IA para fines delictivos. Brightwell sospecha que los estafadores utilizaron videos o grabaciones públicas de su hija —posiblemente obtenidas en redes sociales— para entrenar un modelo de clonación de voz y generar una réplica digital extremadamente realista.
“Te digo que no había nada que pudiera convencerme de que esa no era la voz de mi hija ese día”, declaró Sharon a Fox News.
Este tipo de fraudes no es nuevo, pero su sofisticación y accesibilidad han aumentado con la expansión de herramientas de IA generativa. Hoy, basta con unos pocos segundos de audio para que un modelo de clonación vocal pueda recrear una voz con gran fidelidad. Esto hace que las estafas telefónicas tradicionales evolucionen hacia nuevas formas que explotan la confianza emocional de las víctimas.
¿Cómo protegerse?
Tras su experiencia, la familia Brightwell está impulsando una campaña para advertir a otros sobre los peligros de estas nuevas técnicas. Entre sus recomendaciones destaca la creación de una palabra clave familiar, un código privado que pueda usarse para verificar identidades en situaciones de emergencia.
Además, la familia lanzó una campaña en GoFundMe para intentar mitigar las pérdidas financieras causadas por el fraude. Esto debido a que, según han señalado las autoridades locales, la probabilidad de recuperar el dinero directamente de los estafadores es prácticamente nula. La investigación sigue en curso.
Noticias, entretenimiento en vivo, debates intensos sobre fútbol y más. ¡Entra ya! 👇