Die Videoproduktion erlebt einen revolutionären Durchbruch. Das KI-Unternehmen HeyGen hat ein neues Bewegungssteuerungssystem für digitale Avatare veröffentlicht, das erstmals eine umfassende Steuerung von Körperbewegungen ermöglicht. Diese technologische Innovation erlaubt es digitalen Avataren nicht nur, subtile Gesichtsausdrücke darzustellen, sondern auch komplexe Bewegungen wie das Spielen von Instrumenten, Tanzen und präzise Fingerbewegungen auszuführen.

QQ20250124-142138.jpg

In einem Demonstrationsvideo erregte die natürliche Greifbewegung eines virtuellen Charakters, der eine Blume hält, besondere Aufmerksamkeit. Obwohl die aktuelle Präsentation hauptsächlich die Manipulation einzelner Objekte zeigt, verfügt die zugrundeliegende Technologie bereits über einen Rahmen für die Interaktion mit Objekten. Analysten weisen auf das Potenzial für Anwendungen in der Produktpräsentation hin, wobei zukünftige Iterationen die Grenzen der bestehenden Darstellungsformen überwinden könnten.

Dieses Upgrade setzt HeyGens Innovationsweg im Bereich der digitalen Avatare fort. Die zuvor veröffentlichte Technologie zur Generierung virtueller Avatare ermöglicht bereits eine nahtlose Integration mit von Sora generierten Szenen. Die neue Version reduziert durch die Einführung eines kinematischen Steuerungsalgorithmus die Verzögerung der Bewegungsreaktion auf unter 12 Millisekunden. Anwender können über eine parametrische Benutzeroberfläche die Gelenkwinkel und Bewegungspfade des digitalen Avatars pixelgenau steuern und so den zeitaufwändigen Motion-Capturing-Prozess traditioneller Filmproduktionen ersetzen.

Bemerkenswert ist, dass HeyGens generative Lösung für virtuelle Avatare sich deutlich von traditionellen digitalen Klontechniken unterscheidet. Das System ist nicht auf Daten aus der Modellierung realer Personen angewiesen, sondern generiert mithilfe tiefer neuronaler Netze selbstständig physikalisch plausible virtuelle Avatare. Das technische Whitepaper zeigt, dass die Architektur die Echtzeitgenerierung von über 200 Gelenkdatenpunkten unterstützt. In Kombination mit einem Reinforcement-Learning-Algorithmus weisen die Bewegungen des digitalen Avatars biomechanische Eigenschaften auf.

Branchenzahlen zeigen, dass die Verwendung des Systems die Effizienz der Videoproduktion um etwa 47 % steigert und die Kosten für die Erstellung dynamischer Szenen auf ein Achtel der traditionellen Methoden reduziert. Das Ingenieurteam gab bekannt, dass an einem Steuerungssystem der dritten Generation gearbeitet wird, das die Simulation von taktilem Feedback integrieren wird. Geplant ist, die physikalische Interaktion zwischen digitalen Avataren und virtuellen Objekten bis Ende 2024 zu ermöglichen.

Website: https://app.heygen.com/