La nueva herramienta de IA de ByteDance convierte una simple imagen en un video ultra realista. Pero, ¿qué consecuencias tendrá esta innovación para el futuro de los medios digitales y la veracidad en la era de la desinformación?
ByteDance, la empresa detrás de TikTok, ha revelado oficialmente su nueva herramienta de inteligencia artificial, OmniHuman-1, un modelo de generación de video que puede crear clips realistas a partir de una sola imagen y una señal de movimiento, como audio o video, logrando una animación fluida con un nivel de detalle asombroso.
OmniHuman-1 combina imágenes y clips de audio para generar secuencias de video de una persona moviéndose y hablando de manera natural. Según la página oficial del proyecto, el sistema es capaz de trabajar con retratos, imágenes de medio cuerpo o de cuerpo completo, manteniendo coherencia en iluminación, texturas y expresiones.
El modelo se basa en una arquitectura de transformadores y modelos de difusión para agregar sonido a una imagen y difuminar elementos hasta lograr una apariencia natural, procesando varios elementos en el tiempo para mejorar la fluidez. Su entrenamiento incluyó 18,700 horas de video con un enfoque que combina texto, audio y video.
En la página del proyecto se pueden ver ejemplos que destacan la capacidad de OmniHuman-1, incluido un video en el que se revive a Albert Einstein, mostrándolo frente a una pizarra, gesticulando con las manos mientras explica conceptos científicos.
"OmniHuman supera significativamente los métodos existentes, generando videos humanos extremadamente realistas basados en entradas de señales débiles, especialmente audio", se afirma en un artículo de investigación sobre la herramienta publicado en el archivo de acceso abierto arXiv.
Por el momento, OmniHuman-1 no está disponible para el público general. Su alto costo de entrenamiento y ejecución restringe su acceso, lo que podría evitar un uso masivo inmediato. Sin embargo, su desarrollo plantea preguntas urgentes sobre el futuro de la autenticidad digital y el impacto de la inteligencia artificial.
El peligro de los deepfakes
A pesar de su impresionante capacidad, la herramienta también plantea riesgos significativos. Samantha G. Wolfe, profesora de la Steinhardt School de la NYU, advierte que esta tecnología podría utilizarse para crear versiones falsas de figuras públicas, como líderes políticos, lo que pondría en riesgo la credibilidad de la información.
“Crear algo a partir de una simple imagen y hacer que parezca que realmente habla y se mueve es fascinante desde un punto de vista tecnológico, pero también podría tener muchas consecuencias negativas”, señaló en una entrevista para Forbes.
El uso de modelos como OmniHuman-1 también podría afectar a cualquier persona cuya imagen sea manipulada sin su consentimiento. La creación de deepfakes hiperrealistas incrementa las posibilidades de fraudes, extorsiones y otros usos malintencionados que pueden dañar reputaciones y generar confusión en la opinión pública.
Según datos de Home Security Heroes, la cantidad de videos falsos y engañosos generados con inteligencia artificial creció un 550% entre 2019 y 2023. La capacidad de OmniHuman-1 de producir contenido tan realista podría acelerar aún más esta tendencia, facilitando la propagación de desinformación y el fraude digital.
Mientras la tecnología avanza a pasos agigantados, el desafío no solo está en su perfeccionamiento, sino en cómo la sociedad regula su uso para evitar que el poder de la IA se convierta en una amenaza para la verdad y la confianza en la información.
Te recomendamos
Comparte esta noticia