Monte Carlo Diffusion per RANSAC Basato su Apprendimento Generalizzabile
Monte Carlo Diffusion for Generalizable Learning-Based RANSAC
March 12, 2025
Autori: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI
Abstract
Random Sample Consensus (RANSAC) è un approccio fondamentale per la stima robusta di modelli parametrici a partire da dati rumorosi. I metodi RANSAC basati sull'apprendimento esistenti utilizzano il deep learning per migliorare la robustezza di RANSAC contro gli outlier. Tuttavia, questi approcci vengono addestrati e testati su dati generati dagli stessi algoritmi, portando a una limitata generalizzazione su dati fuori distribuzione durante l'inferenza. Pertanto, in questo articolo, introduciamo un nuovo paradigma basato sulla diffusione che inietta progressivamente rumore nei dati di ground truth, simulando le condizioni rumorose per l'addestramento di RANSAC basato sull'apprendimento. Per migliorare la diversità dei dati, incorporiamo il campionamento Monte Carlo nel paradigma di diffusione, approssimando diverse distribuzioni di dati introducendo diversi tipi di casualità in più fasi. Valutiamo il nostro approccio nel contesto del feature matching attraverso esperimenti completi sui dataset ScanNet e MegaDepth. I risultati sperimentali dimostrano che il nostro meccanismo di diffusione Monte Carlo migliora significativamente la capacità di generalizzazione di RANSAC basato sull'apprendimento. Sviluppiamo anche ampi studi di ablazione che evidenziano l'efficacia dei componenti chiave del nostro framework.
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly
estimating parametric models from noisy data. Existing learning-based RANSAC
methods utilize deep learning to enhance the robustness of RANSAC against
outliers. However, these approaches are trained and tested on the data
generated by the same algorithms, leading to limited generalization to
out-of-distribution data during inference. Therefore, in this paper, we
introduce a novel diffusion-based paradigm that progressively injects noise
into ground-truth data, simulating the noisy conditions for training
learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo
sampling into the diffusion paradigm, approximating diverse data distributions
by introducing different types of randomness at multiple stages. We evaluate
our approach in the context of feature matching through comprehensive
experiments on the ScanNet and MegaDepth datasets. The experimental results
demonstrate that our Monte Carlo diffusion mechanism significantly improves the
generalization ability of learning-based RANSAC. We also develop extensive
ablation studies that highlight the effectiveness of key components in our
framework.