SCas4D : Optimisation en cascade structurelle pour l'amélioration de la synthèse persistante de vues nouvelles en 4D
SCas4D: Structural Cascaded Optimization for Boosting Persistent 4D Novel View Synthesis
October 8, 2025
papers.authors: Jipeng Lyu, Jiahua Dong, Yu-Xiong Wang
cs.AI
papers.abstract
La modélisation persistante de scènes dynamiques pour le suivi et la synthèse de nouvelles vues reste un défi en raison de la difficulté à capturer des déformations précises tout en maintenant une efficacité computationnelle. Nous proposons SCas4D, un cadre d'optimisation en cascade qui exploite les motifs structurels dans le *3D Gaussian Splatting* pour les scènes dynamiques. L'idée clé est que les déformations dans le monde réel présentent souvent des motifs hiérarchiques, où des groupes de Gaussiennes partagent des transformations similaires. En affinant progressivement les déformations, du niveau grossier des parties au niveau fin des points, SCas4D atteint la convergence en moins de 100 itérations par intervalle de temps et produit des résultats comparables aux méthodes existantes avec seulement un vingtième des itérations d'entraînement. Cette approche démontre également son efficacité dans la segmentation auto-supervisée d'objets articulés, la synthèse de nouvelles vues et les tâches de suivi dense de points.
English
Persistent dynamic scene modeling for tracking and novel-view synthesis
remains challenging due to the difficulty of capturing accurate deformations
while maintaining computational efficiency. We propose SCas4D, a cascaded
optimization framework that leverages structural patterns in 3D Gaussian
Splatting for dynamic scenes. The key idea is that real-world deformations
often exhibit hierarchical patterns, where groups of Gaussians share similar
transformations. By progressively refining deformations from coarse part-level
to fine point-level, SCas4D achieves convergence within 100 iterations per time
frame and produces results comparable to existing methods with only
one-twentieth of the training iterations. The approach also demonstrates
effectiveness in self-supervised articulated object segmentation, novel view
synthesis, and dense point tracking tasks.