ChatPaper.aiChatPaper

Light4D: Reiluminación de Vídeo 4D desde Puntos de Vista Extremos sin Entrenamiento

Light4D: Training-Free Extreme Viewpoint 4D Video Relighting

February 12, 2026
Autores: Zhenghuang Wu, Kang Chen, Zeyu Zhang, Hao Tang
cs.AI

Resumen

Los recientes avances en modelos generativos basados en difusión han establecido un nuevo paradigma para la reiluminación de imágenes y vídeos. Sin embargo, extender estas capacidades a la reiluminación 4D sigue siendo un desafío, principalmente debido a la escasez de datos de entrenamiento 4D emparejados para reiluminación y la dificultad de mantener la coherencia temporal entre vistas extremas. En este trabajo, proponemos Light4D, un novedoso marco de trabajo que no requiere entrenamiento, diseñado para sintetizar vídeos 4D consistentes bajo una iluminación objetivo, incluso bajo cambios extremos de punto de vista. En primer lugar, introducimos la Guía de Flujo Disociado, una estrategia consciente del tiempo que inyecta eficazmente el control de iluminación en el espacio latente preservando la integridad geométrica. En segundo lugar, para reforzar la coherencia temporal, desarrollamos la Atención Temporalmente Consistente dentro de la arquitectura IC-Light e incorporamos además una regularización determinista para eliminar el parpadeo de apariencia. Experimentos exhaustivos demuestran que nuestro método logra un rendimiento competitivo en coherencia temporal y fidelidad de iluminación, manejando robustamente rotaciones de cámara de -90° a 90°. Código: https://github.com/AIGeeksGroup/Light4D. Sitio web: https://aigeeksgroup.github.io/Light4D.
English
Recent advances in diffusion-based generative models have established a new paradigm for image and video relighting. However, extending these capabilities to 4D relighting remains challenging, due primarily to the scarcity of paired 4D relighting training data and the difficulty of maintaining temporal consistency across extreme viewpoints. In this work, we propose Light4D, a novel training-free framework designed to synthesize consistent 4D videos under target illumination, even under extreme viewpoint changes. First, we introduce Disentangled Flow Guidance, a time-aware strategy that effectively injects lighting control into the latent space while preserving geometric integrity. Second, to reinforce temporal consistency, we develop Temporal Consistent Attention within the IC-Light architecture and further incorporate deterministic regularization to eliminate appearance flickering. Extensive experiments demonstrate that our method achieves competitive performance in temporal consistency and lighting fidelity, robustly handling camera rotations from -90 to 90. Code: https://github.com/AIGeeksGroup/Light4D. Website: https://aigeeksgroup.github.io/Light4D.
PDF22February 17, 2026