Intel desarrolla una tecnología anti deepfake con 96% de eficacia
Intel desarrolla una tecnología anti deepfake con 96% de eficacia | Fuente: Unsplash

Intel apura el paso en temas paralelos a procesadores y tarjetas gráficas, y apunta a la gestión veloz de información mediante la implementación de inteligencia artificial para el rápido reconocimiento de datos. Ahora, y como parte de un trabajo de responsabilidad social, la marca de semiconductores presenta FakeCatcher, una tecnología capaz de detectar al 96% videos deepfake..

En comunicado, Intel señala que es importante darle al mundo una herramienta de detección de falsificación profunda: “Los videos deepfake están en todas partes ahora. Probablemente ya los hayas visto; videos de celebridades haciendo o diciendo cosas que en realidad nunca hicieron”, menciona Ilke Demir, científica investigadora sénior del personal de Intel Labs.

A través de algoritmos de detección de rostros optimizados por bibliotecas de software de procesos múltiples aplicadas sobre herramientas de proceso de imágenes y videos en tiempo real, Intel pudo analizar “flujos de sangre”, elementos que nos hacen humanos frente a los “ojos computacionales”.

La función de FakeCatcher, unos de los primeros de su género, es detectar esas sutilezas en rostros humanos, y tratarlos sobre mapas espaciotemporales para detectar, mediante el aprendizaje profundo, si un video es falso o no.

DeepFakes: Una amenaza creciente en el mundo

El reporte de Intel recoge cifras de Gartner que advierten sobre un gasto total de 188 mil millones de dólares en soluciones de ciberseguridad que prevengan la irrupción maliciosa de las herramientas deepfake en entornos digitales. En términos simples, actualmente es caro y lento el proceso de detección.

Según la compañía, la inclusión e FakeCatcher ayudaría a las plataformas de redes sociales en el bloqueo de videos potencialmente dañinos, al igual que las agencias de noticias globales serían capaces de detectar videos falsos y, con ello, evitar la publicación de noticias no verificadas.

Sepa más: