Buscar
Reproduciendo
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Informes RPP
BRICS Media 2025: Encuentro que puso en agenda al sur global
EP 1307 • 03:55
Reflexiones del evangelio
Lunes 21 de julio | "Tres días y tres noches estuvo Jonás en el vientre del cetáceo; pues tres días y tres noches estará el Hijo del hombre en el seno de la tierra"
EP 1037 • 12:04
Letras en el tiempo
Obras que cumplen 100 años
EP 27 • 39:32

Clonan la voz de su hija con IA y la estafan con 15 mil dólares: el caso que alerta sobre los nuevos fraudes tecnológicos

La inteligencia artificial está facilitando estafas cada vez más difíciles de detectar
La inteligencia artificial está facilitando estafas cada vez más difíciles de detectar | Fuente: Freepik

El caso de una madre en Florida que entregó 15 mil dólares creyendo hablar con su hija revela los riesgos reales de esta tecnología cuando cae en manos equivocadas.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

En la era de la IA, los fraudes tecnológicos están alcanzando niveles alarmantes de sofisticación. Ya no se trata solo de imágenes o videos falsificados. Ahora, la voz también puede ser replicada con una precisión inquietante, lo cual está siendo aprovechado por ciberdelincuentes para ejecutar estafas cada vez más creíbles.

Eso fue lo que vivió Sharon Brightwell, una mujer residente del condado de Hillsborough, Florida, quien el pasado 9 de julio fue víctima de una estafa de 15 mil dólares que involucró la clonación de voz mediante inteligencia artificial.

Todo comenzó con una llamada que, según relata, parecía provenir de su hija, April Munroe. La voz al otro lado de la línea era histérica, entre sollozos, y aseguraba haber atropellado a una mujer embarazada de siete meses mientras enviaba mensajes de texto al conducir. La voz e incluso el llanto, sonaba exactamente como su hija.

“Nadie podría convencerme de que no era ella. Conozco el llanto de mi hija”, dijo Sharon en una entrevista con el canal WFLA.

Acto seguido, un hombre que se hizo pasar por abogado de April le explicó que su hija estaba detenida y que debía pagar una fianza inmediata de 15 mil dólares en efectivo. Sharon, desesperada por ayudar a su hija, entregó el dinero en mano a un supuesto “representante legal” que fue hasta su casa.

Minutos después, recibió otra llamada en la que le informaron que la mujer embarazada había perdido al bebé y que ahora se necesitaban 30 mil dólares más para evitar una demanda. Fue en ese momento que una amiga cercana logró comunicarse con la verdadera April Munroe, quien estaba completamente a salvo. Sharon descubrió así que había sido víctima de una elaborada estafa tecnológica.

Te recomendamos

Inteligencia artificial al servicio del crimen

Este caso refleja una preocupante tendencia: el uso de IA para fines delictivos. Brightwell sospecha que los estafadores utilizaron videos o grabaciones públicas de su hija —posiblemente obtenidas en redes sociales— para entrenar un modelo de clonación de voz y generar una réplica digital extremadamente realista.

“Te digo que no había nada que pudiera convencerme de que esa no era la voz de mi hija ese día”, declaró Sharon a Fox News.

Este tipo de fraudes no es nuevo, pero su sofisticación y accesibilidad han aumentado con la expansión de herramientas de IA generativa. Hoy, basta con unos pocos segundos de audio para que un modelo de clonación vocal pueda recrear una voz con gran fidelidad. Esto hace que las estafas telefónicas tradicionales evolucionen hacia nuevas formas que explotan la confianza emocional de las víctimas.

¿Cómo protegerse?

Tras su experiencia, la familia Brightwell está impulsando una campaña para advertir a otros sobre los peligros de estas nuevas técnicas. Entre sus recomendaciones destaca la creación de una palabra clave familiar, un código privado que pueda usarse para verificar identidades en situaciones de emergencia.

Además, la familia lanzó una campaña en GoFundMe para intentar mitigar las pérdidas financieras causadas por el fraude. Esto debido a que, según han señalado las autoridades locales, la probabilidad de recuperar el dinero directamente de los estafadores es prácticamente nula. La investigación sigue en curso.

¡Mira RPP en YouTube!

Noticias, entretenimiento en vivo, debates intensos sobre fútbol y más. ¡Entra ya! 👇

¡Suscríbete gratis

Te recomendamos

Metadata

METADATA E268 | La gama media se renueva: ¿Qué nuevas opciones han llegado al mercado?; Huawei y su glow up

¡Bienvenidos a METADATA, el podcast de Tecnología de RPP! Estas semanas estuvimos llenos de lanzamientos, ¿qué opciones nos brinda la gama media? Además, conversamos con Carlos Morales, PR Director de América Latina de Huawei, que ha traído su teléfono de tres pliegues al Perú. Vamos más allá de los productos y revisamos el renacer del gigante chino.

Metadata
00:00 · 00:00

Video recomendado

Tags

Más sobre Más Tecnología

Lo más leído

Contenido promocionado

Taboola
SIGUIENTE NOTA