El campo de la generación de video ha experimentado un avance revolucionario. HeyGen, una empresa de inteligencia artificial, ha lanzado recientemente un sistema de control de movimiento para avatares digitales que permite, por primera vez, controlar ampliamente los movimientos corporales de una imagen virtual. Este avance tecnológico permite que los avatares digitales no solo realicen microexpresiones faciales básicas, sino que también ejecuten con fluidez acciones corporales complejas como tocar instrumentos musicales, bailar, e incluso controlar con precisión las articulaciones de los dedos para realizar gestos específicos.
En el video de demostración, el agarre natural de una flor por parte del personaje virtual ha llamado la atención de la industria. Aunque la demostración actual se centra principalmente en la manipulación de un solo objeto, la tecnología subyacente ya cuenta con un marco de capacidad de interacción con objetos. Los analistas señalan que esta función ya tiene un potencial de aplicación en la presentación de productos, y que las futuras iteraciones podrían superar las limitaciones de las formas de presentación actuales.
Esta actualización continúa con la trayectoria innovadora de HeyGen en el campo de los avatares digitales. La tecnología de generación de avatares virtuales lanzada anteriormente ya se integra perfectamente con las escenas generadas por Sora. La nueva versión, mediante la introducción de un algoritmo de control cinemático, reduce el retraso de respuesta de movimiento a menos de 12 milisegundos. Los creadores ahora pueden controlar el ángulo de las articulaciones y la trayectoria del movimiento del avatar digital a nivel de píxel a través de una interfaz de ajuste paramétrico, reemplazando el proceso de captura de movimiento que consume mucho tiempo y esfuerzo en la producción cinematográfica tradicional.
Cabe destacar que la solución de avatares virtuales generativos empleada por HeyGen se diferencia claramente de las técnicas tradicionales de clonación digital. El sistema no depende de datos de modelado de personas reales, sino que genera de forma autónoma imágenes virtuales con una física razonable a través de una red neuronal profunda. El libro blanco técnico muestra que esta arquitectura admite la generación en tiempo real de datos de más de 200 puntos de articulación, y en combinación con algoritmos de aprendizaje por refuerzo, hace que los movimientos del avatar digital presenten características biomecánicas.
Los datos del sector muestran que la eficiencia de la producción de video con este sistema aumenta aproximadamente un 47%, y el costo de producción de escenas dinámicas se reduce a 1/8 del método tradicional. El equipo de ingenieros ha revelado que el sistema de control de tercera generación que se está desarrollando integrará la simulación de retroalimentación táctil, y planea lograr la función de interacción física entre el avatar digital y los objetos virtuales a finales de 2024.
Dirección del sitio web: https://app.heygen.com/