Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
El Club de la Green Card
Cheques de estímulo para junio de 2024: ¿Quiénes son los beneficiarios?
EP 55 • 02:18
Entrevistas ADN
Congreso tiene una mayor injerencia populista, señala politólogo del Centro Wiñaq
EP 1689 • 13:24
Marginal
MARGINAL | 203 | Historia económica
EP 203 • 10:09

Voces clonadas: la nueva modalidad de estafa con inteligencia artificial de la que te debes cuidar

Distintas figuras públicas han sido utilizadas como señuelos para engañar a la gente
Distintas figuras públicas han sido utilizadas como señuelos para engañar a la gente | Fuente: ESET

Roger Menéndez, especialista en ciberseguridad, habla sobre esta modalidad de fraude y ofrece valiosas recomendaciones para evitar ser víctimas de estafas realizadas mediante el uso de inteligencia artificial.

Seguridad

¿De qué manera estos ciberdelincuentes logran clonar las voces?

Ultimamente se está detectando una alarmante tendencia en el uso de inteligencia artificial para la creación de videos falsos con el fin de estafar a personas, aprovechando la voz de reconocidos personajes peruanos como Mavila Huertas, José Luis Pérez Albela, Elmer Huerta y hasta la propia Magaly Medina.

Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades.

"Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos", mencionó Menéndez.

La técnica empleada por los ciberdelincuentes consiste en primer lugar en crear audios falsos utilizando inteligencia artificial, luego editan videos utilizando imágenes previamente grabadas, y finalmente los combinan para generar contenido engañoso y polémico. Esta manipulación tiene como objetivo incitar a las personas a realizar acciones como clics en sitios fraudulentos, descargas de software malicioso o transferencias de dinero.

Te recomendamos

Todos podemos ser víctimas del mal uso de la inteligencia artificial

El especialista menciona también que cualquier persona, sin importar si es una figura pública o no, puede ser víctima de este tipo de estafas. Menéndez advierte que los delincuentes pueden obtener fragmentos de voz de las redes sociales y utilizarlos para crear audios falsos que, por ejemplo, soliciten dinero a familiares o amigos.

Es crucial destacar que los estafadores hacen uso de las redes sociales para segmentar estos videos de estafa, enfocándose, por ejemplo, en personas mayores, quienes son más vulnerables a este tipo de engaños.

Seguridad

Cualquier persona puede ser víctima de esta modalidad de estafa, menciona el especialista en ciberseguridad

¿Cómo evitar caer en estos engaños?

Ante esta situación, Menéndez recomienda tomar varias medidas preventivas. "Lo primero que yo recomiendo es difundir esta información. Hablar con amigos, familiares, y especialmente con personas mayores, para que estén al tanto de que hoy en día los delincuentes están utilizando la inteligencia artificial para clonar voces, crear videos falsos, y clonar páginas web. Es esencial que desconfíen cada vez que reciben un mensaje o ven un aviso que les exige hacer un depósito, una transferencia, o dejar datos personales", subrayó.

Además, menciona que es importante revisar las páginas oficiales de las personas o entidades que supuestamente están difundiendo la información para verificar su autenticidad. "Otra recomendación es revisar las páginas oficiales de quienes están difundiendo la noticia falsa. Esto puede ayudar a confirmar si la información es verídica o no", añadió Menéndez.

Seguridad

¿Cuáles son las recomendaciones del especialista para evitar caer en estos fraudes?

RPP en YouTube

La voz de todo el Perú.

¡Suscríbete gratis

Te recomendamos

METADATA

METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)

¡Bienvenidos a METADATA 245, el podcast de tecnología de RPP! La competencia en la inteligencia artificial se intensifica con OpenAI y Google mostrando sus nuevas armas: asistentes de voz cada vez más sofisticados. ¿Pero cómo mantenernos seguros usando la IA? IBM nos da recomendaciones. Android implementa nuevas medidas para combatir los robos de celulares y Twitter dice (ahora sí) adiós.

Metadata | podcast
METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)

Comunicador audiovisual. Apasionado por la música, el fútbol y la lucha libre.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA