ChatPaper.aiChatPaper

NormalCrafter: Aprendendo Normais Temporalmente Consistentes a partir de Vídeo com Priors de Difusão

NormalCrafter: Learning Temporally Consistent Normals from Video Diffusion Priors

April 15, 2025
Autores: Yanrui Bin, Wenbo Hu, Haoyuan Wang, Xinya Chen, Bing Wang
cs.AI

Resumo

A estimativa de normais de superfície serve como um pilar fundamental para uma variedade de aplicações de visão computacional. Embora inúmeros esforços tenham sido dedicados a cenários de imagens estáticas, garantir coerência temporal na estimativa de normais baseada em vídeo continua sendo um desafio formidável. Em vez de simplesmente aprimorar métodos existentes com componentes temporais, apresentamos o NormalCrafter para aproveitar os priors temporais inerentes dos modelos de difusão de vídeo. Para garantir uma estimativa de normais de alta fidelidade em sequências, propomos a Regularização de Características Semânticas (SFR, na sigla em inglês), que alinha as características de difusão com pistas semânticas, incentivando o modelo a se concentrar na semântica intrínseca da cena. Além disso, introduzimos um protocolo de treinamento em duas etapas que aproveita o aprendizado tanto no espaço latente quanto no espaço de pixels para preservar a precisão espacial enquanto mantém um contexto temporal longo. Avaliações extensivas demonstram a eficácia do nosso método, exibindo um desempenho superior na geração de sequências de normais temporalmente consistentes com detalhes intrincados a partir de vídeos diversos.
English
Surface normal estimation serves as a cornerstone for a spectrum of computer vision applications. While numerous efforts have been devoted to static image scenarios, ensuring temporal coherence in video-based normal estimation remains a formidable challenge. Instead of merely augmenting existing methods with temporal components, we present NormalCrafter to leverage the inherent temporal priors of video diffusion models. To secure high-fidelity normal estimation across sequences, we propose Semantic Feature Regularization (SFR), which aligns diffusion features with semantic cues, encouraging the model to concentrate on the intrinsic semantics of the scene. Moreover, we introduce a two-stage training protocol that leverages both latent and pixel space learning to preserve spatial accuracy while maintaining long temporal context. Extensive evaluations demonstrate the efficacy of our method, showcasing a superior performance in generating temporally consistent normal sequences with intricate details from diverse videos.

Summary

AI-Generated Summary

PDF172April 16, 2025