Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Nutriagenda
EP30 | ¡Ojo con los envases que utilizas para la lonchera!
EP 30 • 40:22
Reflexiones del evangelio
Domingo 26 de mayo | (Santísima Trinidad) - "Vayan y hagan discípulos de todos los pueblos, bautizándolos en el nombre del Padre y del Hijo y del Espíritu Santo"
EP 644 • 12:14
Las cosas como son
Ciberdelincuencia en el Congreso
EP 424 • 02:18

Una compañía perdió 25 millones de dólares tras una estafa orquestada con IA

Los deepfakes son utilizados en estafas.
Los deepfakes son utilizados en estafas. | Fuente: ESET

Ciberdelincuentes crearon un deepfake del jefe financiero de la compañía, que ordenó una cuantiosa transacción vía videollamada.

Una compañía en Hong Kong fue víctima de una estafa realizada vía deepfakes, la cual le ha costado millones de dólares.

El South China Morning Post informa que una compañía multinacional perdió 200 millones de dólares hongkoneses, unos 25.6 millones de dólares al cambio, por medio de un engaño que involucró una videollamada utilizando tecnología deepfake.

Los estafadores crearon representaciones falsas de personal de la compañía, incluido su director financiero, incluyendo imagen y voz en una videollamada.

“En esta ocasión, en una videollamada con múltiples personas, resultó que todo lo que se vio era falso”, explicó Baron Chan Shun, superintendente de la policía de Hong Kong.

Uno de los empleados del área financiera de la compañía recibió un mensaje sospechoso, en el que el jefe financiero de la empresa aseguraba que se debía realizar una “transacción en secreto”.

El empleado realizó la transacción luego de una videollamada en la que encontró al jefe financiero y otro personal de la compañía. Esta fue armada por los estafadores.

Los estafadores utilizaron herramientas de inteligencia artificial (IA) para crear las imágenes y el audio altamente convincente, indicó la policía.

Los deepfakes como gran problema: ¿Cómo detectarlos?

Un deepfake es un archivo de video, imagen o audio que ha sido manipulado utilizando técnicas de inteligencia artificial para hacerlo parecer auténtico cuando no lo es.

Los deepfakes han levantado polémica y preocupación luego de la aparición de varias imágenes sexuales falsas de Taylor Swift a finales de enero.

El inspector senior de la policía de Hong Kong Tyler Chan Chi-wing dio algunos consejos para diferenciar un deepfake de una imagen real en videollamadas o videos.

Sugiere pedir a la persona que mueva la cabeza, hacer preguntas para determinar su autenticidad y sospechar inmediatamente si es que la comunicación involucra alguna solicitud de dinero.

ESET compartió estos tips para identificar deepfakes en su guía de seguridad digital:

1. ¿La grabación parece difícil de creer? ¿El contenido es escandaloso y claramente intenta provocar una respuesta emocional de los espectadores/oyentes? Si es así, esa puede ser la primera señal para acercarse con escepticismo y verificar la información que ves o escuchas.

2. ¿No hay algo sospechoso en los detalles? Con frecuencia, los creadores de deepfakes tienen problemas para duplicar expresiones más sutiles, como parpadear, respirar o el cabello y los movimientos faciales delicados. De vez en cuando, también puede haber ligeros fallos en las áreas que más se mueven. En las grabaciones de audio, debes buscar pausas poco naturales entre palabras o, por el contrario, un discurso demasiado perfecto.

3. ¿El cuerpo se mueve naturalmente? Cuando alguien nos habla, tendemos a mirar su rostro en lugar de su cuerpo. Los creadores de deepfake también se enfocan principalmente en replicar expresiones faciales, por lo que si la forma del cuerpo o los movimientos de la persona en el vídeo parecen un poco extraños, es posible que estés viendo un deepfake.

4. ¿El audio se ajusta al vídeo? A veces, los creadores de deepfakes no logran hacer coincidir la grabación de audio con los movimientos de la persona. Una vez más, observa la cara con cautela para ver si los movimientos de la boca coinciden con las palabras que supuestamente salen de ella.

5. ¿La iluminación es consistente? ¿O la cabeza de la persona parece anormalmente clara u oscura? Las discrepancias de iluminación pueden ser un regalo.

Te recomendamos

Alberto Nishiyama

Alberto Nishiyama Periodista de tecnología

Bachiller en Ciencias de la Comunicación finalizando una maestría en Maketing y Comunicación Digital. Especialista en temas de tecnología, innovación y videojuegos. Más de 10 años de experiencia profesional.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA