ChatPaper.aiChatPaper

TC-Light: 動的長時間ビデオのための時間的一貫性を保つリライティング

TC-Light: Temporally Consistent Relighting for Dynamic Long Videos

June 23, 2025
著者: Yang Liu, Chuanchen Luo, Zimo Tang, Yingyan Li, Yuran Yang, Yuanyong Ning, Lue Fan, Junran Peng, Zhaoxiang Zhang
cs.AI

要旨

複雑なダイナミクスを持つ長時間ビデオにおける照明編集は、ビジュアルコンテンツの作成や操作、さらにはシミュレーションから現実(sim2real)および現実から現実(real2real)への転移を通じた具現化AIのデータスケールアップなど、さまざまな下流タスクにおいて重要な価値を持つ。しかしながら、既存のビデオ再照明技術は、主にポートレートビデオに限定されているか、時間的一貫性と計算効率のボトルネックに陥っている。本論文では、提案する二段階最適化メカニズムを特徴とする新しいパラダイム、TC-Lightを提案する。膨張型ビデオ再照明モデルによって予備的に再照明されたビデオから始め、第一段階で外観埋め込みを最適化してグローバルな照明を整列させる。次に、第二段階で提案する正規ビデオ表現、すなわちユニークビデオテンソル(UVT)を最適化して、細かなテクスチャと照明を整列させる。性能を包括的に評価するために、長時間かつ高度にダイナミックなビデオベンチマークも確立した。広範な実験により、本手法が物理的に妥当な再照明結果を優れた時間的一貫性と低い計算コストで実現することが示された。コードとビデオデモはhttps://dekuliutesla.github.io/tclight/で公開されている。
English
Editing illumination in long videos with complex dynamics has significant value in various downstream tasks, including visual content creation and manipulation, as well as data scaling up for embodied AI through sim2real and real2real transfer. Nevertheless, existing video relighting techniques are predominantly limited to portrait videos or fall into the bottleneck of temporal consistency and computation efficiency. In this paper, we propose TC-Light, a novel paradigm characterized by the proposed two-stage post optimization mechanism. Starting from the video preliminarily relighted by an inflated video relighting model, it optimizes appearance embedding in the first stage to align global illumination. Then it optimizes the proposed canonical video representation, i.e., Unique Video Tensor (UVT), to align fine-grained texture and lighting in the second stage. To comprehensively evaluate performance, we also establish a long and highly dynamic video benchmark. Extensive experiments show that our method enables physically plausible relighting results with superior temporal coherence and low computation cost. The code and video demos are available at https://dekuliutesla.github.io/tclight/.
PDF61June 24, 2025