Light4D: Reiluminação de Vídeos 4D em Pontos de Vista Extremos sem Treinamento
Light4D: Training-Free Extreme Viewpoint 4D Video Relighting
February 12, 2026
Autores: Zhenghuang Wu, Kang Chen, Zeyu Zhang, Hao Tang
cs.AI
Resumo
Avances recentes em modelos generativos baseados em difusão estabeleceram um novo paradigma para a reiluminação de imagens e vídeos. No entanto, estender essas capacidades para a reiluminação 4D permanece um desafio, principalmente devido à escassez de dados de treinamento pareados para reiluminação 4D e à dificuldade de manter a consistência temporal através de pontos de vista extremos. Neste trabalho, propomos o Light4D, uma nova estrutura livre de treinamento projetada para sintetizar vídeos 4D consistentes sob iluminação alvo, mesmo sob mudanças extremas de ponto de vista. Primeiro, introduzimos a Orientação por Fluxo Desacoplado, uma estratégia consciente do tempo que injeta eficazmente controle de iluminação no espaço latente, preservando a integridade geométrica. Segundo, para reforçar a consistência temporal, desenvolvemos a Atenção Temporalmente Consistente dentro da arquitetura IC-Light e incorporamos ainda a regularização determinística para eliminar cintilações de aparência. Experimentos extensivos demonstram que nosso método alcança desempenho competitivo em consistência temporal e fidelidade de iluminação, lidando robustamente com rotações de câmera de -90 a 90 graus. Código: https://github.com/AIGeeksGroup/Light4D. Website: https://aigeeksgroup.github.io/Light4D.
English
Recent advances in diffusion-based generative models have established a new paradigm for image and video relighting. However, extending these capabilities to 4D relighting remains challenging, due primarily to the scarcity of paired 4D relighting training data and the difficulty of maintaining temporal consistency across extreme viewpoints. In this work, we propose Light4D, a novel training-free framework designed to synthesize consistent 4D videos under target illumination, even under extreme viewpoint changes. First, we introduce Disentangled Flow Guidance, a time-aware strategy that effectively injects lighting control into the latent space while preserving geometric integrity. Second, to reinforce temporal consistency, we develop Temporal Consistent Attention within the IC-Light architecture and further incorporate deterministic regularization to eliminate appearance flickering. Extensive experiments demonstrate that our method achieves competitive performance in temporal consistency and lighting fidelity, robustly handling camera rotations from -90 to 90. Code: https://github.com/AIGeeksGroup/Light4D. Website: https://aigeeksgroup.github.io/Light4D.