Elk naar Vol: Diepte Alles aansturen voor Dieptecompletering in Eén Fase
Any to Full: Prompting Depth Anything for Depth Completion in One Stage
March 5, 2026
Auteurs: Zhiyuan Zhou, Ruofeng Liu, Taichi Liu, Weijian Zuo, Shanshan Wang, Zhiqing Hong, Desheng Zhang
cs.AI
Samenvatting
Nauwkeurige, dichte diepteschatting is cruciaal voor robotperceptie, maar consumentensensoren leveren vaak schaarse of onvolledige metingen op vanwege hardwarebeperkingen. Bestaande RGBD-gefuseerde dieptecompleteringsmethoden leren priors gezamenlijk geconditioneerd op de RGB-trainingsdistributie en specifieke dieptepatronen, wat de domeingeneralizatie en robuustheid voor verschillende dieptepatronen beperkt. Recente inspanningen benutten monocular depth estimation (MDE)-modellen om domeingenerieke geometrische priors in te voeren, maar huidige tweestaps-integratiestrategieën die vertrouwen op expliciete relatieve-naar-metrische alignering veroorzaken extra rekenkosten en introduceren gestructureerde vervormingen. Daarom presenteren we Any2Full, een eentraps, domeingeneriek en patroon-agnostisch framework dat completering herformuleert als een scale-prompting-aanpassing van een voorgetraind MDE-model. Om variërende dieptesparsheidsniveaus en onregelmatige ruimtelijke verdelingen aan te pakken, ontwerpen we een Scale-Aware Prompt Encoder. Deze distilleert schaalaanwijzingen uit schaarse invoer tot verenigde schaalprompts, die het MDE-model leiden naar globaal schaalconsistente voorspellingen terwijl de geometrische priors behouden blijven. Uitgebreide experimenten tonen aan dat Any2Full superieure robuustheid en efficiëntie bereikt. Het overtreft OMNI-DC met 32,2% in gemiddelde AbsREL en levert een 1,4x snelheidswinst op ten opzichte van PriorDA met dezelfde MDE-backbone, waarmee een nieuw paradigma voor universele dieptecompletering wordt gevestigd. Code en checkpoints zijn beschikbaar op https://github.com/zhiyuandaily/Any2Full.
English
Accurate, dense depth estimation is crucial for robotic perception, but commodity sensors often yield sparse or incomplete measurements due to hardware limitations. Existing RGBD-fused depth completion methods learn priors jointly conditioned on training RGB distribution and specific depth patterns, limiting domain generalization and robustness to various depth patterns. Recent efforts leverage monocular depth estimation (MDE) models to introduce domain-general geometric priors, but current two-stage integration strategies relying on explicit relative-to-metric alignment incur additional computation and introduce structured distortions. To this end, we present Any2Full, a one-stage, domain-general, and pattern-agnostic framework that reformulates completion as a scale-prompting adaptation of a pretrained MDE model. To address varying depth sparsity levels and irregular spatial distributions, we design a Scale-Aware Prompt Encoder. It distills scale cues from sparse inputs into unified scale prompts, guiding the MDE model toward globally scale-consistent predictions while preserving its geometric priors. Extensive experiments demonstrate that Any2Full achieves superior robustness and efficiency. It outperforms OMNI-DC by 32.2\% in average AbsREL and delivers a 1.4times speedup over PriorDA with the same MDE backbone, establishing a new paradigm for universal depth completion. Codes and checkpoints are available at https://github.com/zhiyuandaily/Any2Full.