ChatPaper.aiChatPaper

Mono4DGS-HDR: Splatting Gaussiano 4D ad Alto Intervallo Dinamico da Video Monoculari con Esposizione Alternata

Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos

October 21, 2025
Autori: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI

Abstract

Presentiamo Mono4DGS-HDR, il primo sistema per la ricostruzione di scene 4D ad alto range dinamico (HDR) renderizzabili a partire da video monoculari a basso range dinamico (LDR) non posati acquisiti con esposizioni alternate. Per affrontare una sfida così complessa, proponiamo un framework unificato con un approccio di ottimizzazione a due fasi basato su Gaussian Splatting. La prima fase apprende una rappresentazione HDR del video mediante Gaussiane nello spazio delle coordinate della camera ortografica, eliminando la necessità di pose della camera e consentendo una ricostruzione iniziale robusta del video HDR. La seconda fase trasforma le Gaussiane del video nello spazio mondiale e affina congiuntamente le Gaussiane mondiali insieme alle pose della camera. Inoltre, proponiamo una strategia di regolarizzazione temporale della luminanza per migliorare la coerenza temporale dell'aspetto HDR. Poiché questo compito non è stato studiato in precedenza, abbiamo costruito un nuovo benchmark di valutazione utilizzando dataset pubblicamente disponibili per la ricostruzione di video HDR. Esperimenti estensivi dimostrano che Mono4DGS-HDR supera significativamente soluzioni alternative adattate da metodi all'avanguardia sia nella qualità del rendering che nella velocità.
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR) videos captured with alternating exposures. To tackle such a challenging problem, we present a unified framework with two-stage optimization approach based on Gaussian Splatting. The first stage learns a video HDR Gaussian representation in orthographic camera coordinate space, eliminating the need for camera poses and enabling robust initial HDR video reconstruction. The second stage transforms video Gaussians into world space and jointly refines the world Gaussians with camera poses. Furthermore, we propose a temporal luminance regularization strategy to enhance the temporal consistency of the HDR appearance. Since our task has not been studied before, we construct a new evaluation benchmark using publicly available datasets for HDR video reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR significantly outperforms alternative solutions adapted from state-of-the-art methods in both rendering quality and speed.
PDF43October 22, 2025