BlockFusion
Erweiterungsmodell für die 3D-Szenerie-Generierung
Normales ProduktDesign3D-SzeneModell
BlockFusion ist ein diffusionsbasiertes Modell zur Generierung von 3D-Szenen, das nahtlos neue Blöcke in die Szene integriert. Es wird durch Training an einem Datensatz von 3D-Blöcken trainiert, die zufällig aus vollständigen 3D-Szene-Netzen ausgeschnitten wurden. Durch stückweises Anpassen werden alle Trainingsblöcke in hybride neuronale Felder umgewandelt: Tetraeder, die geometrische Merkmale enthalten, gefolgt von einem mehrschichtigen Perzeptron (MLP) zur Decodierung von vorzeichenbehafteten Distanzwerten. Ein variationsautoencoder wird verwendet, um die Tetraeder in einen latenten Tetraederraum zu komprimieren und dort einer Rauschdiffusion zu unterziehen. Die Diffusion wird auf die latente Darstellung angewendet, um eine qualitativ hochwertige und diverse 3D-Szenerie-Generierung zu ermöglichen. Beim Erweitern der Szene während der Generierung werden einfach leere Blöcke hinzugefügt, um mit der aktuellen Szene zu überlappen, und die vorhandenen latenten Tetraeder werden extrapoliert, um den neuen Block zu füllen. Die Extrapolation erfolgt durch die Modulation des Generierungsprozesses während der Rauschentfernungsiteration unter Verwendung von Merkmalsmustern aus überlappenden Tetraedern. Die Extrapolation der latenten Tetraeder erzeugt semantisch und geometrisch sinnvolle Übergänge, die sich harmonisch in die bestehende Szene einfügen. Ein 2D-Layout-Steuerungsmechanismus wird verwendet, um die Platzierung und Anordnung von Szenenelementen zu steuern. Experimentelle Ergebnisse zeigen, dass BlockFusion diverse, geometrisch konsistente und qualitativ hochwertige große 3D-Szenen im Innen- und Außenbereich generieren kann.
BlockFusion Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44