SCas4D: Strukturelle kaskadierte Optimierung zur Verbesserung der persistenten 4D-Neuansichtssynthese
SCas4D: Structural Cascaded Optimization for Boosting Persistent 4D Novel View Synthesis
October 8, 2025
papers.authors: Jipeng Lyu, Jiahua Dong, Yu-Xiong Wang
cs.AI
papers.abstract
Die persistente Modellierung dynamischer Szenen für Tracking und die Synthese neuer Ansichten bleibt aufgrund der Schwierigkeit, präzise Deformationen zu erfassen und gleichzeitig die Recheneffizienz zu gewährleisten, eine Herausforderung. Wir schlagen SCas4D vor, ein kaskadiertes Optimierungsframework, das strukturelle Muster im 3D-Gaussian-Splatting für dynamische Szenen nutzt. Die zentrale Idee besteht darin, dass Deformationen in der realen Welt oft hierarchische Muster aufweisen, bei denen Gruppen von Gauss-Transformationen ähnliche Transformationen teilen. Durch die schrittweise Verfeinerung der Deformationen von groben Teilbereichs- zu feinen Punktniveaus erreicht SCas4D eine Konvergenz innerhalb von 100 Iterationen pro Zeitschritt und erzielt Ergebnisse, die mit bestehenden Methoden vergleichbar sind, jedoch mit nur einem Zwanzigstel der Trainingsiterationen. Der Ansatz zeigt auch Wirksamkeit bei der selbstüberwachten Segmentierung artikulierter Objekte, der Synthese neuer Ansichten und der dichten Punktverfolgung.
English
Persistent dynamic scene modeling for tracking and novel-view synthesis
remains challenging due to the difficulty of capturing accurate deformations
while maintaining computational efficiency. We propose SCas4D, a cascaded
optimization framework that leverages structural patterns in 3D Gaussian
Splatting for dynamic scenes. The key idea is that real-world deformations
often exhibit hierarchical patterns, where groups of Gaussians share similar
transformations. By progressively refining deformations from coarse part-level
to fine point-level, SCas4D achieves convergence within 100 iterations per time
frame and produces results comparable to existing methods with only
one-twentieth of the training iterations. The approach also demonstrates
effectiveness in self-supervised articulated object segmentation, novel view
synthesis, and dense point tracking tasks.