ChatPaper.aiChatPaper

NormalCrafter: Lernen zeitlich konsistenter Normalen aus Video-Diffusionspriors

NormalCrafter: Learning Temporally Consistent Normals from Video Diffusion Priors

April 15, 2025
Autoren: Yanrui Bin, Wenbo Hu, Haoyuan Wang, Xinya Chen, Bing Wang
cs.AI

Zusammenfassung

Die Schätzung von Oberflächennormalen bildet einen Grundpfeiler für eine Vielzahl von Computer-Vision-Anwendungen. Während zahlreiche Bemühungen auf statische Bildszenarien ausgerichtet waren, bleibt die Gewährleistung zeitlicher Kohärenz bei der Normalenschätzung in Videos eine beträchtliche Herausforderung. Anstatt bestehende Methoden lediglich mit zeitlichen Komponenten zu erweitern, präsentieren wir NormalCrafter, um die inhärenten zeitlichen Prioritäten von Video-Diffusionsmodellen zu nutzen. Um eine hochwertige Normalenschätzung über Sequenzen hinweg zu sichern, schlagen wir die Semantische Merkmalsregularisierung (Semantic Feature Regularization, SFR) vor, die Diffusionsmerkmale mit semantischen Hinweisen abstimmt und das Modell dazu anregt, sich auf die intrinsische Semantik der Szene zu konzentrieren. Darüber hinaus führen wir ein zweistufiges Trainingsprotokoll ein, das sowohl latente als auch Pixelraum-Lernprozesse nutzt, um räumliche Genauigkeit zu bewahren und gleichzeitig einen langen zeitlichen Kontext aufrechtzuerhalten. Umfangreiche Auswertungen belegen die Wirksamkeit unserer Methode und zeigen eine überlegene Leistung bei der Erzeugung zeitlich konsistenter Normalensequenzen mit detaillierten Strukturen aus diversen Videos.
English
Surface normal estimation serves as a cornerstone for a spectrum of computer vision applications. While numerous efforts have been devoted to static image scenarios, ensuring temporal coherence in video-based normal estimation remains a formidable challenge. Instead of merely augmenting existing methods with temporal components, we present NormalCrafter to leverage the inherent temporal priors of video diffusion models. To secure high-fidelity normal estimation across sequences, we propose Semantic Feature Regularization (SFR), which aligns diffusion features with semantic cues, encouraging the model to concentrate on the intrinsic semantics of the scene. Moreover, we introduce a two-stage training protocol that leverages both latent and pixel space learning to preserve spatial accuracy while maintaining long temporal context. Extensive evaluations demonstrate the efficacy of our method, showcasing a superior performance in generating temporally consistent normal sequences with intricate details from diverse videos.

Summary

AI-Generated Summary

PDF172April 16, 2025