Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Estados Unidos mantendrá TLC pese a ola proteccionista, dice Brian Nichols
EP 1749 • 12:17
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

Conductores de RPP son víctimas de la inteligencia artificial: promocionan dudosos productos con falsos videos

En los falsos videos, los conductores incitan a los usuarios a invertir hasta 1000 soles para obtener grandes ganancias.
En los falsos videos, los conductores incitan a los usuarios a invertir hasta 1000 soles para obtener grandes ganancias. | Fuente: RPP Noticias

Elmer Huertas, Mávila Huertas y Sara Abu-Sabbah son algunas de las víctimas de las ediciones malintencionadas con inteligencia artificial. ¡Cuidado! Si caes puedes ser víctima de una estafa.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Más Tecnología

Deepfake RPP Noticias

“Quiero anunciar que ahora cada peruano puede olvidarse de trabajar como de costumbre y, en cambio, obtener un ingreso pasivo de 50 mil nuevos soles peruanos al mes, lo que equivale a 1500 al día”, se escucha en un audio clonado con inteligencia artificial de Sara Abu-Sabbah, conductora del programa Encendidos de RPP Noticias.  

“¿Por qué un peruano común debería trabajar duro para ganar mucho dinero? Con el nuevo programa de inversión, cualquier residente de Perú puede olvidarse del trabajo duro”, prosigue una falsa Dina Boluarte.

Diversas figuras del medio están siendo víctimas de noticias falsas creadas con inteligencia artificial, intentando así lograr estafar a los oyentes, provocando que gasten dinero en grandes proporciones prometiéndoles bonos inexistentes como ganancia.

Te recomendamos

Comportamiento repetido

“Es un tema serio. Es la tercera vez que tratan de usar mi identidad para vender algún producto y hacer caer en una suerte de estafa”, señala Abu-Sabbah. “Lamentablemente solamente cuando utilizamos las declaraciones a través de los medios de comunicación para aclarar a la gente de que esas no eran declaraciones reales, fue que hubo resultados para que esas páginas desaparezcan”.

En el caso de la conductora de Encendidos, la voz clonada señala que “con invertir 950 soles, vas a tener un bono de 50 mil”. Posteriormente, aparece una imagen de la presidenta Dina Boluarte reafirmando lo anunciado.

“Sí tengo un producto que he desarrollado que es un producto para la salud digestiva, pero solamente está en mi página web con todas las medidas de seguridad y en tiendas físicas que están correctamente verificadas. Es importante precisar esto”, añade.

Lo que hacen las personas es recoger “mucho audio de la persona que quieren clonar”, señala Jesús Veliz, director de la sección de Tecnología de RPP Noticias. “Declaraciones en medios, YouTube, podcast, de donde sea. Agarras y se lo das a servicios de inteligencia artificial en la nube. Hay sistemas que te piden 25 muestras para orientar el audio en distintos contextos: en llamadas telefónicas, cuando gritas y más. De esa manera la IA puede entrenarse, buscar los parámetros que definen esa voz”.

Una vez terminado, el sistema te muestra un procesador de texto en el que “tú escribes lo que quieres” para que en segundos la máquina te lance los resultados.

Veliz añade que hay dos técnicas que se usan. Primero es la clonación por voz, adiestrando a la inteligencia artificial para que aprenda por este mecanismo. El otro es subir dicho audio adulterado a un servicio de video para que se sincronice con los labios de las personas a las que se trata de clonar.

“Este es un anuncio para que nuestros oyentes no sean timados, no sean engañados”, dijo el Dr. Elmer Huertas, también afectado por este problema. “Están circulando videos promocionando productos de dudosísima efectividad en la que salgo yo. Esos videos son completamente falsos y son productos de la inteligencia artificial. Clonan la voz, parece que somos nosotros”.

Algunos tips para poder identificar los videos falsificados con inteligencia artificial. | Fuente: RPP

Te recomendamos

¿Cómo darse cuenta?

El experto en tecnología refiere que hay una serie de pasos que pueden ayudar a identificar si estos videos y audios son falsos.

“Humanicemos lo que estamos escuchando. Por lo general, las personas que estamos frente a estos micrófonos, solemos corregir mucho lo que estamos hablando. Añadimos muletillas. La inteligencia artificial no hace eso”, señala.

“Nosotros cuando hablamos, cambiamos el timbre. Podemos hablar alto, podemos hablar bajo. La IA no lo puede hacer. Es un audio que se vuelve plano”, añade, advirtiendo también que eso es un problema “todavía”, ya que, con el rápido avance en el que se desarrolla la IA, puede ser solucionado muy pronto.

En el video, “los fondos son muy estáticos. Las cabezas suelen estar muy pegadas al fondo. No gesticula. Sospecha allí”.  

“Si la voz es muy plana, si habla sin inflexión y sin vida o no tiene pausa, es también importante”, señala. “Tercero: duda del mensaje”.

Asimismo, felicitó a las personas que consultaron a las mismas figuras públicas al respecto.

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA