Sus creadores indican que no está en los planes incorporar VALL-E 2 en un producto o ampliar su acceso al público, ya que su uso indebido podría conllevar riesgos potenciales.
En 2023, Microsoft logró desarrollar VALL-E, un nuevo modelo de inteligencia artificial capaz de imitar cualquier voz humana a partir de una grabación de solo 3 segundos. Lo más curioso de esta Inteligencia Artificial Generativa (IAG) es que no solo reproduce la voz, sino que también captura y emula el tono emocional del usuario.
Sin embargo, Microsoft decidió ir más allá de los buenos resultados obtenidos con VALL-E. La empresa ha estado desarrollando su último avance en modelos de lenguaje de códecs neuronales: VALL-E 2. Este nuevo modelo presenta mejoras significativas que elevan su rendimiento en comparación con su predecesor, logrando la "paridad humana por primera vez".
"VALL-E 2 logra por primera vez el rendimiento TTS de disparo cero de paridad humana. En este contexto, la paridad humana indica que las métricas de robustez, naturalidad y similitud de VALL-E 2 superan a las de las muestras de realidad fundamental [...], lo que significa que VALL-E 2 puede generar un habla precisa y natural en la voz exacta del hablante original, comparable al rendimiento humano", se puede leer en la web de Microsoft.
Es tan perfecto que genera temor
A pesar de los impresionantes avances y capacidades demostradas por VALL-E 2, los creadores han decidido mantenerla como "puramente un proyecto de investigación". Actualmente no permiten que el público tenga acceso a esta herramienta debido a los posibles riesgos asociados con su uso indebido.
En su página web, Microsoft advirtió que "puede conllevar riesgos potenciales en el uso indebido del modelo, como falsificar la identificación de voz o hacerse pasar por un hablante específico". La empresa recalcó que "no tenemos planes de incorporar VALL-E 2 en un producto o ampliar el acceso al público".
Muestras de audio con VALL-E 2
Texto | Modelo de voz | VALL-E 2 |
---|---|---|
"Clever cats carefully crafted colorful collages creating cheerful compositions" |
Voces clonadas: la nueva modalidad de estafa
En una entrevista para RPP, Roger Menéndez, especialista en ciberseguridad, ha advertido sobre el peligroso uso de inteligencias artificiales que, a partir de fragmentos de voz o grabaciones previas, pueden generar audios que imitan a la perfección el timbre y entonación de estas personalidades.
"Estas tecnologías permiten no solo clonar la voz, sino también editar videos de manera convincente, creando así montajes en los cuales pareciera que estas figuras públicas están promoviendo productos o solicitando acciones específicas, como hacer clic en enlaces maliciosos", mencionó Menéndez
La técnica empleada por los ciberdelincuentes consiste, en primer lugar, en crear audios falsos utilizando inteligencia artificial, luego editan videos utilizando imágenes previamente grabadas y finalmente los combinan para generar contenido engañoso y polémico. Esta manipulación tiene como objetivo incitar a las personas a realizar acciones como clics en sitios fraudulentos, descargas de software malicioso o transferencias de dinero.
Cabe mencionar que cualquier persona, sin importar si es una figura pública o no, puede ser víctima de este tipo de estafas. Menéndez advierte que los delincuentes pueden obtener fragmentos de voz de las redes sociales y utilizarlos para crear audios falsos que, por ejemplo, soliciten dinero a familiares o amigos.
Te recomendamos
Comparte esta noticia