ChatPaper.aiChatPaper

Mono4DGS-HDR : Splatting Gaussien 4D à haute plage dynamique à partir de vidéos monoculaires à exposition alternée

Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos

October 21, 2025
papers.authors: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI

papers.abstract

Nous présentons Mono4DGS-HDR, le premier système permettant de reconstruire des scènes 4D à haute plage dynamique (HDR) rendables à partir de vidéos monoculaires à plage dynamique réduite (LDR) non posées, capturées avec des expositions alternées. Pour relever un tel défi, nous proposons un cadre unifié avec une approche d'optimisation en deux étapes basée sur le lissage gaussien. La première étape apprend une représentation gaussienne HDR de la vidéo dans l'espace de coordonnées de la caméra orthographique, éliminant ainsi le besoin de poses de caméra et permettant une reconstruction initiale robuste de la vidéo HDR. La deuxième étape transforme les gaussiennes de la vidéo dans l'espace monde et affine conjointement les gaussiennes mondiales avec les poses de caméra. De plus, nous proposons une stratégie de régularisation de la luminance temporelle pour améliorer la cohérence temporelle de l'apparence HDR. Étant donné que cette tâche n'a jamais été étudiée auparavant, nous construisons un nouveau benchmark d'évaluation en utilisant des ensembles de données publiquement disponibles pour la reconstruction de vidéos HDR. Des expériences approfondies démontrent que Mono4DGS-HDR surpasse significativement les solutions alternatives adaptées à partir des méthodes de pointe, tant en qualité de rendu qu'en vitesse.
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR) videos captured with alternating exposures. To tackle such a challenging problem, we present a unified framework with two-stage optimization approach based on Gaussian Splatting. The first stage learns a video HDR Gaussian representation in orthographic camera coordinate space, eliminating the need for camera poses and enabling robust initial HDR video reconstruction. The second stage transforms video Gaussians into world space and jointly refines the world Gaussians with camera poses. Furthermore, we propose a temporal luminance regularization strategy to enhance the temporal consistency of the HDR appearance. Since our task has not been studied before, we construct a new evaluation benchmark using publicly available datasets for HDR video reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR significantly outperforms alternative solutions adapted from state-of-the-art methods in both rendering quality and speed.
PDF43October 22, 2025