Diese Arbeit stellt eine Methode zur dynamischen Perspektivsynthese basierend auf Diffusionsprioren vor, um neue Perspektiven dynamischer Szenen aus monokularen Videos zu generieren. Durch Feinabstimmung und Wissensdestillation der Videobilder werden geometrische und szenische Konsistenz erreicht. Die Effektivität und Robustheit des Verfahrens werden durch qualitative und quantitative Experimente bewertet und zeigen die Vorteile der Methode in komplexen Szenarien.