Microsoft ha creado una herramienta llamada Microsoft Video Authenticator, con la finalidad de detectar videos manipulados con tecnología 'Deep Fake'.
Microsoft quiere evitar que las desinformaciones se esparza como el virus. En una publicación en su blog, la compañía anunció el lanzamiento de su herramienta llamada Microsoft Video Authenticator, que puede analizar tanto fotos como videos para dar "un porcentaje de probabilidad, o puntuación de confianza, de que los medios están manipulados artificialmente".
La herramienta es capaz de analizar cada fotograma e indicar un porcentaje de veracidad en tiempo real.
El término 'Deep Fake' hace referencia a aquellos materiales audiovisuales y gráficos modificados con software de inteligencia artificial para reemplazar el rostro de una persona o cambiar el movimiento de los labios para que parezca que dijo otra cosa.
Esta nueva herramienta de Microsoft analiza cada cuadro por segundo para detectar las pequeñas imperfecciones en el borde modificado, que aveces es indetectable para el ojo humano.
Para este propósito, Microsoft se ha asociado con un grupo de empresas de medios llamado Project Origin, que incluye a la BBC y al New York Times, para probar la nueva tecnología. "En los próximos meses, esperamos ampliar el trabajo en esta área a más empresas de tecnología, editores de noticias y empresas de redes sociales", dijo Microsoft.
Si bien, la tecnología 'Deep Fake' puede evolucionar, Microsoft espera que su herramienta sea muy útil para detectar información errónea con vistas a las elecciones presidenciales de Estados Unidos.
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.
Comparte esta noticia