Mono4DGS-HDR: Representación de Splatting Gaussiano 4D de Alto Rango Dinámico a partir de Vídeos Monoculares con Exposición Alternada
Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos
October 21, 2025
Autores: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI
Resumen
Presentamos Mono4DGS-HDR, el primer sistema para reconstruir escenas 4D de alto rango dinámico (HDR, por sus siglas en inglés) renderizables a partir de videos monoculares de bajo rango dinámico (LDR) capturados con exposiciones alternas y sin pose específica. Para abordar este problema tan desafiante, proponemos un marco unificado con un enfoque de optimización en dos etapas basado en Gaussian Splatting. La primera etapa aprende una representación HDR del video en el espacio de coordenadas de cámara ortográfica, eliminando la necesidad de poses de cámara y permitiendo una reconstrucción inicial robusta del video HDR. La segunda etapa transforma los Gaussianos del video al espacio mundial y refina conjuntamente los Gaussianos mundiales con las poses de la cámara. Además, proponemos una estrategia de regularización de luminancia temporal para mejorar la consistencia temporal de la apariencia HDR. Dado que esta tarea no ha sido estudiada previamente, construimos un nuevo punto de referencia de evaluación utilizando conjuntos de datos disponibles públicamente para la reconstrucción de videos HDR. Experimentos exhaustivos demuestran que Mono4DGS-HDR supera significativamente a soluciones alternativas adaptadas de métodos de vanguardia tanto en calidad de renderizado como en velocidad.
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D
high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR)
videos captured with alternating exposures. To tackle such a challenging
problem, we present a unified framework with two-stage optimization approach
based on Gaussian Splatting. The first stage learns a video HDR Gaussian
representation in orthographic camera coordinate space, eliminating the need
for camera poses and enabling robust initial HDR video reconstruction. The
second stage transforms video Gaussians into world space and jointly refines
the world Gaussians with camera poses. Furthermore, we propose a temporal
luminance regularization strategy to enhance the temporal consistency of the
HDR appearance. Since our task has not been studied before, we construct a new
evaluation benchmark using publicly available datasets for HDR video
reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR
significantly outperforms alternative solutions adapted from state-of-the-art
methods in both rendering quality and speed.