ChatPaper.aiChatPaper

Hybrid-granulare Merkmalsaggregation mit grob-zu-fein Sprachführung für selbstüberwachte monokulare Tiefenschätzung

Hybrid-grained Feature Aggregation with Coarse-to-fine Language Guidance for Self-supervised Monocular Depth Estimation

October 10, 2025
papers.authors: Wenyao Zhang, Hongsi Liu, Bohan Li, Jiawei He, Zekun Qi, Yunnan Wang, Shengyang Zhao, Xinqiang Yu, Wenjun Zeng, Xin Jin
cs.AI

papers.abstract

Aktuelle selbstüberwachte Ansätze zur monokularen Tiefenschätzung (MDE) stoßen auf Leistungsbeschränkungen aufgrund unzureichender Extraktion von semantisch-räumlichem Wissen. Um diese Herausforderung zu bewältigen, schlagen wir Hybrid-depth vor, ein neuartiges Framework, das systematisch Foundation-Modelle (z. B. CLIP und DINO) integriert, um visuelle Prioritäten zu extrahieren und ausreichende kontextuelle Informationen für MDE zu erlangen. Unser Ansatz führt ein grob-zu-fein progressives Lernframework ein: 1) Zunächst aggregieren wir mehrstufige Merkmale aus CLIP (globale Semantik) und DINO (lokale räumliche Details) unter kontrastiver Sprachführung. Eine Proxy-Aufgabe, die nahe und entfernte Bildausschnitte vergleicht, wird entworfen, um tiefenbewusste Merkmalsausrichtung mithilfe von Textprompts zu erzwingen; 2) Anschließend integrieren wir, basierend auf den groben Merkmalen, Kameraposeninformationen und pixelweise Sprachausrichtung, um die Tiefenvorhersagen zu verfeinern. Dieses Modul lässt sich nahtlos in bestehende selbstüberwachte MDE-Pipelines (z. B. Monodepth2, ManyDepth) als Plug-and-Play-Tiefenencoder integrieren und verbessert die kontinuierliche Tiefenschätzung. Durch die Aggregation von CLIPs semantischem Kontext und DINOs räumlichen Details mittels Sprachführung adressiert unsere Methode effektiv Fehlanpassungen der Merkmalsgranularität. Umfangreiche Experimente auf dem KITTI-Benchmark zeigen, dass unsere Methode die SOTA-Methoden in allen Metriken deutlich übertrifft, was auch tatsächlich nachgelagerte Aufgaben wie BEV-Wahrnehmung begünstigt. Der Code ist verfügbar unter https://github.com/Zhangwenyao1/Hybrid-depth.
English
Current self-supervised monocular depth estimation (MDE) approaches encounter performance limitations due to insufficient semantic-spatial knowledge extraction. To address this challenge, we propose Hybrid-depth, a novel framework that systematically integrates foundation models (e.g., CLIP and DINO) to extract visual priors and acquire sufficient contextual information for MDE. Our approach introduces a coarse-to-fine progressive learning framework: 1) Firstly, we aggregate multi-grained features from CLIP (global semantics) and DINO (local spatial details) under contrastive language guidance. A proxy task comparing close-distant image patches is designed to enforce depth-aware feature alignment using text prompts; 2) Next, building on the coarse features, we integrate camera pose information and pixel-wise language alignment to refine depth predictions. This module seamlessly integrates with existing self-supervised MDE pipelines (e.g., Monodepth2, ManyDepth) as a plug-and-play depth encoder, enhancing continuous depth estimation. By aggregating CLIP's semantic context and DINO's spatial details through language guidance, our method effectively addresses feature granularity mismatches. Extensive experiments on the KITTI benchmark demonstrate that our method significantly outperforms SOTA methods across all metrics, which also indeed benefits downstream tasks like BEV perception. Code is available at https://github.com/Zhangwenyao1/Hybrid-depth.
PDF12October 13, 2025