Synthese bewegter Personen mit 3D-Steuerung

Einzelbildgenerierung realistischer Personenanimationen

Normales ProduktBildBildverarbeitung3D-Animation
Dieses Produkt basiert auf einem Diffusionsmodell und dient zur Generierung von animierten Personenbewegungssequenzen aus einem einzigen Bild, wobei ein bestimmtes 3D-Bewegungsziel vorgegeben wird. Kernkomponenten sind das Erlernen von Vorwissen über unsichtbare Körper- und Kleidungsteile sowie das Rendern neuer Körperhaltungen mit passender Kleidung und Texturen. Wir trainieren das Modell im Textur-Kartenraum, um es gegen Änderungen von Pose und Perspektive invariant zu machen und somit effizienter zu gestalten. Zusätzlich entwickelten wir eine diffusionsbasierte Renderpipeline mit 3D-Körpersteuerungsfähigkeit, die realistische Personenbilder erzeugt. Unsere Methode kann Bildsequenzen generieren, die den 3D-Haltungszielen entsprechen und visuell dem Eingabebild ähneln. Die 3D-Steuerung ermöglicht zudem die Erzeugung verschiedener synthetischer Kameratrajektorien zur Personenrendierung. Experimente zeigen, dass unsere Methode im Vergleich zu früheren Ansätzen Bildsequenzen mit kontinuierlicher Bewegung und komplexen Haltungen erzeugen kann.
Website öffnen

Synthese bewegter Personen mit 3D-Steuerung Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Synthese bewegter Personen mit 3D-Steuerung Besuchstrend

Synthese bewegter Personen mit 3D-Steuerung Geografische Verteilung der Besuche

Synthese bewegter Personen mit 3D-Steuerung Traffic-Quellen

Synthese bewegter Personen mit 3D-Steuerung Alternativen