ChatPaper.aiChatPaper

DepthFM: Estimativa Rápida de Profundidade Monocular com Correspondência de Fluxo

DepthFM: Fast Monocular Depth Estimation with Flow Matching

March 20, 2024
Autores: Ming Gui, Johannes S. Fischer, Ulrich Prestel, Pingchuan Ma, Dmytro Kotovenko, Olga Grebenkova, Stefan Andreas Baumann, Vincent Tao Hu, Björn Ommer
cs.AI

Resumo

A estimação de profundidade monocular é crucial para diversas tarefas e aplicações de visão computacional. As abordagens discriminativas atuais para esse problema são limitadas devido a artefatos borrados, enquanto os métodos generativos de última geração sofrem com amostragem lenta devido à sua natureza de equações diferenciais estocásticas (SDE). Em vez de começar a partir de ruído, buscamos um mapeamento direto da imagem de entrada para o mapa de profundidade. Observamos que isso pode ser efetivamente enquadrado usando correspondência de fluxo (flow matching), já que suas trajetórias retas através do espaço de solução oferecem eficiência e alta qualidade. Nosso estudo demonstra que um modelo de difusão de imagem pré-treinado pode servir como um prior adequado para um modelo de profundidade baseado em correspondência de fluxo, permitindo treinamento eficiente apenas com dados sintéticos para generalização em imagens reais. Descobrimos que uma função de perda auxiliar baseada em normais de superfície melhora ainda mais as estimativas de profundidade. Devido à natureza generativa de nossa abordagem, nosso modelo prevê de forma confiável a confiança de suas estimativas de profundidade. Em benchmarks padrão de cenas naturais complexas, nossa abordagem leve exibe desempenho de última geração com um custo computacional favoravelmente baixo, apesar de ter sido treinada com poucos dados sintéticos.
English
Monocular depth estimation is crucial for numerous downstream vision tasks and applications. Current discriminative approaches to this problem are limited due to blurry artifacts, while state-of-the-art generative methods suffer from slow sampling due to their SDE nature. Rather than starting from noise, we seek a direct mapping from input image to depth map. We observe that this can be effectively framed using flow matching, since its straight trajectories through solution space offer efficiency and high quality. Our study demonstrates that a pre-trained image diffusion model can serve as an adequate prior for a flow matching depth model, allowing efficient training on only synthetic data to generalize to real images. We find that an auxiliary surface normals loss further improves the depth estimates. Due to the generative nature of our approach, our model reliably predicts the confidence of its depth estimates. On standard benchmarks of complex natural scenes, our lightweight approach exhibits state-of-the-art performance at favorable low computational cost despite only being trained on little synthetic data.
PDF181February 7, 2026