Tecnología

Voces clonadas: nueva estafa con IA

Te dejamos valiosas recomendaciones para evitar ser víctimas de estafas realizadas mediante el uso de inteligencia artificial.

Voces de famosos

Últimamente se está detectando una alarmante tendencia en el uso de inteligencia artificial para la creación de videos falsos con el fin de estafar a personas, aprovechando la voz de reconocidos personajes peruanos como Mavila Huertas, José Luis Pérez Albela, Elmer Huerta y Magaly Medina.

Imitaciones perfectas

Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades.

Andina

Audios y videos

"Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos", mencionó Menéndez.

Andina

Cómo evitar caer en engaños

Recomienda hablar con amigos, familiares, y especialmente con personas mayores, para que estén al tanto de que hoy en día los delincuentes están utilizando la IA. También revisar las páginas oficiales de quienes están difundiendo la noticia falsa. Esto puede ayudar a confirmar si la información es verídica o no

Andina