ChatPaper.aiChatPaper

Mono4DGS-HDR: Hochdynamische 4D-Gauss-Splatting aus alternierenden Belichtungsmonovideos

Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos

October 21, 2025
papers.authors: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI

papers.abstract

Wir stellen Mono4DGS-HDR vor, das erste System zur Rekonstruktion renderbarer 4D-High-Dynamic-Range (HDR)-Szenen aus unpositionierten monokularen Low-Dynamic-Range (LDR)-Videos, die mit wechselnden Belichtungen aufgenommen wurden. Um eine derart anspruchsvolle Aufgabe zu bewältigen, präsentieren wir ein einheitliches Framework mit einem zweistufigen Optimierungsansatz basierend auf Gaussian Splatting. Die erste Stufe erlernt eine HDR-Gauß-Darstellung des Videos im orthografischen Kamerakoordinatensystem, wodurch die Notwendigkeit von Kameraposen entfällt und eine robuste initiale HDR-Videorekonstruktion ermöglicht wird. Die zweite Stufe transformiert die Video-Gauß-Funktionen in den Weltraum und verfeinert gemeinsam die Welt-Gauß-Funktionen mit den Kameraposen. Darüber hinaus schlagen wir eine temporale Leuchtdichteregularisierungsstrategie vor, um die zeitliche Konsistenz des HDR-Erscheinungsbilds zu verbessern. Da unsere Aufgabe bisher nicht untersucht wurde, erstellen wir einen neuen Evaluierungsbenchmark unter Verwendung öffentlich zugänglicher Datensätze für die HDR-Videorekonstruktion. Umfangreiche Experimente zeigen, dass Mono4DGS-HDR alternative Lösungen, die aus state-of-the-art-Methoden adaptiert wurden, sowohl in der Renderqualität als auch in der Geschwindigkeit deutlich übertrifft.
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR) videos captured with alternating exposures. To tackle such a challenging problem, we present a unified framework with two-stage optimization approach based on Gaussian Splatting. The first stage learns a video HDR Gaussian representation in orthographic camera coordinate space, eliminating the need for camera poses and enabling robust initial HDR video reconstruction. The second stage transforms video Gaussians into world space and jointly refines the world Gaussians with camera poses. Furthermore, we propose a temporal luminance regularization strategy to enhance the temporal consistency of the HDR appearance. Since our task has not been studied before, we construct a new evaluation benchmark using publicly available datasets for HDR video reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR significantly outperforms alternative solutions adapted from state-of-the-art methods in both rendering quality and speed.
PDF43October 22, 2025