ChatPaper.aiChatPaper

Rendering Efficiente di Scene Dinamiche Monoculari tramite Gaussian Splatting mediante Modellizzazione Sparse di Attributi Variabili nel Tempo

Efficient Gaussian Splatting for Monocular Dynamic Scene Rendering via Sparse Time-Variant Attribute Modeling

February 27, 2025
Autori: Hanyang Kong, Xingyi Yang, Xinchao Wang
cs.AI

Abstract

Il rendering di scene dinamiche da video monoculari è un compito cruciale ma impegnativo. Il recente approccio del deformable Gaussian Splatting è emerso come una soluzione robusta per rappresentare scene dinamiche del mondo reale. Tuttavia, spesso porta a una ridondanza eccessiva di Gaussiane, nel tentativo di adattare ogni vista di addestramento a vari istanti temporali, risultando in velocità di rendering più lente. Inoltre, gli attributi delle Gaussiane nelle aree statiche sono invarianti nel tempo, rendendo superfluo modellare ogni Gaussiana, il che può causare tremolii nelle regioni statiche. Nella pratica, il principale collo di bottiglia nella velocità di rendering per le scene dinamiche è il numero di Gaussiane. In risposta, introduciamo l'Efficient Dynamic Gaussian Splatting (EDGS), che rappresenta le scene dinamiche attraverso una modellazione sparsa degli attributi variabili nel tempo. Il nostro approccio formula le scene dinamiche utilizzando una rappresentazione sparsa a griglia di ancore, con il flusso di moto delle Gaussiane dense calcolato tramite una rappresentazione kernel classica. Inoltre, proponiamo una strategia non supervisionata per filtrare efficientemente le ancore corrispondenti alle aree statiche. Solo le ancore associate a oggetti deformabili vengono inserite in MLP per interrogare gli attributi variabili nel tempo. Esperimenti su due dataset del mondo reale dimostrano che il nostro EDGS migliora significativamente la velocità di rendering con una qualità di rendering superiore rispetto ai precedenti metodi all'avanguardia.
English
Rendering dynamic scenes from monocular videos is a crucial yet challenging task. The recent deformable Gaussian Splatting has emerged as a robust solution to represent real-world dynamic scenes. However, it often leads to heavily redundant Gaussians, attempting to fit every training view at various time steps, leading to slower rendering speeds. Additionally, the attributes of Gaussians in static areas are time-invariant, making it unnecessary to model every Gaussian, which can cause jittering in static regions. In practice, the primary bottleneck in rendering speed for dynamic scenes is the number of Gaussians. In response, we introduce Efficient Dynamic Gaussian Splatting (EDGS), which represents dynamic scenes via sparse time-variant attribute modeling. Our approach formulates dynamic scenes using a sparse anchor-grid representation, with the motion flow of dense Gaussians calculated via a classical kernel representation. Furthermore, we propose an unsupervised strategy to efficiently filter out anchors corresponding to static areas. Only anchors associated with deformable objects are input into MLPs to query time-variant attributes. Experiments on two real-world datasets demonstrate that our EDGS significantly improves the rendering speed with superior rendering quality compared to previous state-of-the-art methods.

Summary

AI-Generated Summary

PDF42February 28, 2025