ChatPaper.aiChatPaper

Monte Carlo Diffusion per RANSAC Basato su Apprendimento Generalizzabile

Monte Carlo Diffusion for Generalizable Learning-Based RANSAC

March 12, 2025
Autori: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI

Abstract

Random Sample Consensus (RANSAC) è un approccio fondamentale per la stima robusta di modelli parametrici a partire da dati rumorosi. I metodi RANSAC basati sull'apprendimento esistenti utilizzano il deep learning per migliorare la robustezza di RANSAC contro gli outlier. Tuttavia, questi approcci vengono addestrati e testati su dati generati dagli stessi algoritmi, portando a una limitata generalizzazione su dati fuori distribuzione durante l'inferenza. Pertanto, in questo articolo, introduciamo un nuovo paradigma basato sulla diffusione che inietta progressivamente rumore nei dati di ground truth, simulando le condizioni rumorose per l'addestramento di RANSAC basato sull'apprendimento. Per migliorare la diversità dei dati, incorporiamo il campionamento Monte Carlo nel paradigma di diffusione, approssimando diverse distribuzioni di dati introducendo diversi tipi di casualità in più fasi. Valutiamo il nostro approccio nel contesto del feature matching attraverso esperimenti completi sui dataset ScanNet e MegaDepth. I risultati sperimentali dimostrano che il nostro meccanismo di diffusione Monte Carlo migliora significativamente la capacità di generalizzazione di RANSAC basato sull'apprendimento. Sviluppiamo anche ampi studi di ablazione che evidenziano l'efficacia dei componenti chiave del nostro framework.
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly estimating parametric models from noisy data. Existing learning-based RANSAC methods utilize deep learning to enhance the robustness of RANSAC against outliers. However, these approaches are trained and tested on the data generated by the same algorithms, leading to limited generalization to out-of-distribution data during inference. Therefore, in this paper, we introduce a novel diffusion-based paradigm that progressively injects noise into ground-truth data, simulating the noisy conditions for training learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo sampling into the diffusion paradigm, approximating diverse data distributions by introducing different types of randomness at multiple stages. We evaluate our approach in the context of feature matching through comprehensive experiments on the ScanNet and MegaDepth datasets. The experimental results demonstrate that our Monte Carlo diffusion mechanism significantly improves the generalization ability of learning-based RANSAC. We also develop extensive ablation studies that highlight the effectiveness of key components in our framework.
PDF12March 13, 2025