ChatPaper.aiChatPaper

Mono4DGS-HDR:交互露出モノクロ動画からの高ダイナミックレンジ4次元ガウススプラッティング

Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos

October 21, 2025
著者: Jinfeng Liu, Lingtong Kong, Mi Zhou, Jinwen Chen, Dan Xu
cs.AI

要旨

本論文では、Mono4DGS-HDRを紹介する。これは、交互に露出を変えて撮影された未整列の単眼低ダイナミックレンジ(LDR)ビデオから、レンダリング可能な4次元高ダイナミックレンジ(HDR)シーンを再構築する初のシステムである。このような困難な課題に取り組むため、ガウススプラッティングに基づく二段階最適化アプローチを統合したフレームワークを提案する。第一段階では、正射影カメラ座標空間におけるビデオHDRガウス表現を学習し、カメラポーズを必要とせずに堅牢な初期HDRビデオ再構築を実現する。第二段階では、ビデオガウスをワールド空間に変換し、カメラポーズと共にワールドガウスを共同で精緻化する。さらに、HDR外観の時間的一貫性を向上させるための時間的輝度正則化戦略を提案する。本タスクはこれまで研究されていないため、公開されているデータセットを用いてHDRビデオ再構築のための新しい評価ベンチマークを構築した。広範な実験により、Mono4DGS-HDRが、最新の手法を適用した代替ソリューションよりも、レンダリング品質と速度の両面で大幅に優れていることが示された。
English
We introduce Mono4DGS-HDR, the first system for reconstructing renderable 4D high dynamic range (HDR) scenes from unposed monocular low dynamic range (LDR) videos captured with alternating exposures. To tackle such a challenging problem, we present a unified framework with two-stage optimization approach based on Gaussian Splatting. The first stage learns a video HDR Gaussian representation in orthographic camera coordinate space, eliminating the need for camera poses and enabling robust initial HDR video reconstruction. The second stage transforms video Gaussians into world space and jointly refines the world Gaussians with camera poses. Furthermore, we propose a temporal luminance regularization strategy to enhance the temporal consistency of the HDR appearance. Since our task has not been studied before, we construct a new evaluation benchmark using publicly available datasets for HDR video reconstruction. Extensive experiments demonstrate that Mono4DGS-HDR significantly outperforms alternative solutions adapted from state-of-the-art methods in both rendering quality and speed.
PDF43October 22, 2025