DepthFM: Stima Rapida della Profondità Monoculare con Flow Matching
DepthFM: Fast Monocular Depth Estimation with Flow Matching
March 20, 2024
Autori: Ming Gui, Johannes S. Fischer, Ulrich Prestel, Pingchuan Ma, Dmytro Kotovenko, Olga Grebenkova, Stefan Andreas Baumann, Vincent Tao Hu, Björn Ommer
cs.AI
Abstract
La stima della profondità monoculare è cruciale per numerosi compiti e applicazioni nel campo della visione artificiale. Gli approcci discriminativi attuali a questo problema sono limitati a causa di artefatti sfocati, mentre i metodi generativi all'avanguardia soffrono di un campionamento lento dovuto alla loro natura basata su equazioni differenziali stocastiche (SDE). Piuttosto che partire dal rumore, cerchiamo una mappatura diretta dall'immagine di input alla mappa di profondità. Osserviamo che questo può essere efficacemente inquadrato utilizzando il flusso di corrispondenza (flow matching), poiché le sue traiettorie rettilinee attraverso lo spazio delle soluzioni offrono efficienza e alta qualità. Il nostro studio dimostra che un modello di diffusione di immagini pre-addestrato può servire come un adeguato precedente per un modello di profondità basato su flow matching, consentendo un addestramento efficiente su soli dati sintetici per generalizzare a immagini reali. Troviamo che una perdita ausiliaria basata sulle normali di superficie migliora ulteriormente le stime di profondità. Grazie alla natura generativa del nostro approccio, il nostro modello prevede in modo affidabile la confidenza delle sue stime di profondità. Su benchmark standard di scene naturali complesse, il nostro approccio leggero mostra prestazioni all'avanguardia con un costo computazionale favorevolmente basso, nonostante sia stato addestrato su pochi dati sintetici.
English
Monocular depth estimation is crucial for numerous downstream vision tasks
and applications. Current discriminative approaches to this problem are limited
due to blurry artifacts, while state-of-the-art generative methods suffer from
slow sampling due to their SDE nature. Rather than starting from noise, we seek
a direct mapping from input image to depth map. We observe that this can be
effectively framed using flow matching, since its straight trajectories through
solution space offer efficiency and high quality. Our study demonstrates that a
pre-trained image diffusion model can serve as an adequate prior for a flow
matching depth model, allowing efficient training on only synthetic data to
generalize to real images. We find that an auxiliary surface normals loss
further improves the depth estimates. Due to the generative nature of our
approach, our model reliably predicts the confidence of its depth estimates. On
standard benchmarks of complex natural scenes, our lightweight approach
exhibits state-of-the-art performance at favorable low computational cost
despite only being trained on little synthetic data.