ChatPaper.aiChatPaper

Light-A-Video : Éclairage de vidéos sans entraînement via Fusion de Lumière Progressive

Light-A-Video: Training-free Video Relighting via Progressive Light Fusion

February 12, 2025
Auteurs: Yujie Zhou, Jiazi Bu, Pengyang Ling, Pan Zhang, Tong Wu, Qidong Huang, Jinsong Li, Xiaoyi Dong, Yuhang Zang, Yuhang Cao, Anyi Rao, Jiaqi Wang, Li Niu
cs.AI

Résumé

Les récents progrès dans les modèles de relighting d'images, soutenus par des ensembles de données à grande échelle et des modèles de diffusion pré-entraînés, ont permis d'imposer un éclairage cohérent. Cependant, le relighting vidéo est encore en retard, principalement en raison des coûts de formation excessifs et de la rareté des ensembles de données de relighting vidéo diversifiés et de haute qualité. Une application simple des modèles de relighting d'images sur une base image par image entraîne plusieurs problèmes : une incohérence de la source d'éclairage et une incohérence de l'apparence relightée, entraînant des scintillements dans les vidéos générées. Dans ce travail, nous proposons Light-A-Video, une approche sans formation pour obtenir un relighting vidéo temporellement fluide. Adapté des modèles de relighting d'images, Light-A-Video introduit deux techniques clés pour améliorer la cohérence de l'éclairage. Tout d'abord, nous concevons un module d'attention à la lumière cohérente (CLA), qui renforce les interactions entre les images dans les couches d'auto-attention pour stabiliser la génération de la source d'éclairage d'arrière-plan. Deuxièmement, en exploitant le principe physique de l'indépendance du transport de la lumière, nous appliquons un mélange linéaire entre l'apparence de la vidéo source et l'apparence relightée, en utilisant une stratégie de fusion progressive de la lumière (PLF) pour garantir des transitions temporelles fluides dans l'illumination. Les expériences montrent que Light-A-Video améliore la cohérence temporelle des vidéos relightées tout en maintenant la qualité de l'image, assurant des transitions d'éclairage cohérentes entre les images. Page du projet : https://bujiazi.github.io/light-a-video.github.io/.
English
Recent advancements in image relighting models, driven by large-scale datasets and pre-trained diffusion models, have enabled the imposition of consistent lighting. However, video relighting still lags, primarily due to the excessive training costs and the scarcity of diverse, high-quality video relighting datasets. A simple application of image relighting models on a frame-by-frame basis leads to several issues: lighting source inconsistency and relighted appearance inconsistency, resulting in flickers in the generated videos. In this work, we propose Light-A-Video, a training-free approach to achieve temporally smooth video relighting. Adapted from image relighting models, Light-A-Video introduces two key techniques to enhance lighting consistency. First, we design a Consistent Light Attention (CLA) module, which enhances cross-frame interactions within the self-attention layers to stabilize the generation of the background lighting source. Second, leveraging the physical principle of light transport independence, we apply linear blending between the source video's appearance and the relighted appearance, using a Progressive Light Fusion (PLF) strategy to ensure smooth temporal transitions in illumination. Experiments show that Light-A-Video improves the temporal consistency of relighted video while maintaining the image quality, ensuring coherent lighting transitions across frames. Project page: https://bujiazi.github.io/light-a-video.github.io/.

Summary

AI-Generated Summary

PDF442February 13, 2025