Mono4DGS-HDR:交互露出モノクロ動画からの高ダイナミックレンジ4次元ガウススプラッティング
Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos
October 21, 2025
著者: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI
要旨
本論文では、Mono4DGS-HDRを紹介する。これは、交互に露出を変えて撮影された未整列の単眼低ダイナミックレンジ(LDR)ビデオから、レンダリング可能な4次元高ダイナミックレンジ(HDR)シーンを再構築する初のシステムである。このような困難な課題に取り組むため、ガウススプラッティングに基づく二段階最適化アプローチを統合したフレームワークを提案する。第一段階では、正射影カメラ座標空間におけるビデオHDRガウス表現を学習し、カメラポーズを必要とせずに堅牢な初期HDRビデオ再構築を実現する。第二段階では、ビデオガウスをワールド空間に変換し、カメラポーズと共にワールドガウスを共同で精緻化する。さらに、HDR外観の時間的一貫性を向上させるための時間的輝度正則化戦略を提案する。本タスクはこれまで研究されていないため、公開されているデータセットを用いてHDRビデオ再構築のための新しい評価ベンチマークを構築した。広範な実験により、Mono4DGS-HDRが、最新の手法を適用した代替ソリューションよりも、レンダリング品質と速度の両面で大幅に優れていることが示された。
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D
high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR)
videos captured with alternating exposures. To tackle such a challenging
problem, we present a unified framework with two-stage optimization approach
based on Gaussian Splatting. The first stage learns a video HDR Gaussian
representation in orthographic camera coordinate space, eliminating the need
for camera poses and enabling robust initial HDR video reconstruction. The
second stage transforms video Gaussians into world space and jointly refines
the world Gaussians with camera poses. Furthermore, we propose a temporal
luminance regularization strategy to enhance the temporal consistency of the
HDR appearance. Since our task has not been studied before, we construct a new
evaluation benchmark using publicly available datasets for HDR video
reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR
significantly outperforms alternative solutions adapted from state-of-the-art
methods in both rendering quality and speed.