Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Metadata
METADATA | E245: Hola a los asistentes de voz con Inteligencia Artificial y adiós a Twitter (de verdad)
EP 245 • 27:02
Nutriagenda
EP29 | Qué debemos comer para cuidar los riñones
EP 29 • 39:14
Reflexiones del evangelio
Domingo 19 de mayo | (Pentecostés) - "Exhaló su aliento sobre ellos y les dijo: Reciban el Espíritu Santo; a quienes les perdonen los pecados, les quedan perdonados; a quienes se los retengan, les quedan retenidos"
EP 637 • 12:30

El FBI advierte de impostores que postulan a empleos utilizando deepfakes

Los deepfakes son cada vez más reales. Chris Ume lo demostró con videos de Tom Cruise.
Los deepfakes son cada vez más reales. Chris Ume lo demostró con videos de Tom Cruise. | Fuente: Chris Ume

Impostores han usado los deepfakes para buscar trabajo en áreas donde se maneja información sensible.

Los deepfakes ya han llegado al mercado laboral, ha advertido el Buró Federal de Investigaciones de Estados Unidos, más conocido como el FBI.

En una reciente alerta, el FBI avisó que recibe cada vez más quejas de suplantaciones en entrevistas de trabajo, particularmente para el trabajo remoto.

La mayoría de estas entrevistas eran para trabajos en áreas de tecnología de la información, programación, manejo de bases de datos y relacionados al software.

En algunos casos, estas incluían acceso a información privada, financiera y bases de datos corporativas.

“Las quejas reportan el uso de suplantación de voz, o potencialmente deepfakes de voz, durante entrevistas en línea con los posibles candidatos. En estas entrevistas, las acciones y el movimiento de los labios de la persona que se veía entrevistada en cámara no estaban completamente coordinados con el audio de la persona hablando. En algunos casos, acciones como el toser, estornudar u otras acciones ruidosas no se alineaban con lo que se presentaba visualmente”, explica el FBI.

Esto es peligroso, ya que no se puede identificar a la persona responsable de manejar información sensible en caso uno de los impostores sea contratado.

Algunas víctimas han reportado el uso de su imagen e identidad por terceros para postular a estos trabajos.

Deepfakes: cada vez más comunes

Los deepfakes son cada vez más reales, lo que permite a impostores usar identidades ajenas.

Como reporta el FBI, una persona puede estar hablando, pero la imagen que muestra una videollamada es la de otra.

Una de las formas más fáciles de identificarlos es observar la coordinación entre lo que se ve y lo que se oye. Sin embargo, hay deepfakes cada vez más reales, especialmente cuando se trata de video grabado y no en tiempo real.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA