Monte Carlo de Difusión para RANSAC Basado en Aprendizaje Generalizable
Monte Carlo Diffusion for Generalizable Learning-Based RANSAC
March 12, 2025
Autores: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI
Resumen
El Consenso de Muestreo Aleatorio (RANSAC) es un enfoque fundamental para estimar de manera robusta modelos paramétricos a partir de datos ruidosos. Los métodos existentes de RANSAC basados en aprendizaje utilizan aprendizaje profundo para mejorar la robustez de RANSAC frente a valores atípicos. Sin embargo, estos enfoques se entrenan y prueban con datos generados por los mismos algoritmos, lo que limita su generalización a datos fuera de distribución durante la inferencia. Por lo tanto, en este artículo, introducimos un nuevo paradigma basado en difusión que inyecta progresivamente ruido en los datos de referencia, simulando las condiciones ruidosas para el entrenamiento de RANSAC basado en aprendizaje. Para mejorar la diversidad de datos, incorporamos muestreo de Monte Carlo en el paradigma de difusión, aproximando diversas distribuciones de datos mediante la introducción de diferentes tipos de aleatoriedad en múltiples etapas. Evaluamos nuestro enfoque en el contexto de la correspondencia de características a través de experimentos exhaustivos en los conjuntos de datos ScanNet y MegaDepth. Los resultados experimentales demuestran que nuestro mecanismo de difusión de Monte Carlo mejora significativamente la capacidad de generalización de RANSAC basado en aprendizaje. También desarrollamos extensos estudios de ablación que resaltan la efectividad de los componentes clave en nuestro marco de trabajo.
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly
estimating parametric models from noisy data. Existing learning-based RANSAC
methods utilize deep learning to enhance the robustness of RANSAC against
outliers. However, these approaches are trained and tested on the data
generated by the same algorithms, leading to limited generalization to
out-of-distribution data during inference. Therefore, in this paper, we
introduce a novel diffusion-based paradigm that progressively injects noise
into ground-truth data, simulating the noisy conditions for training
learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo
sampling into the diffusion paradigm, approximating diverse data distributions
by introducing different types of randomness at multiple stages. We evaluate
our approach in the context of feature matching through comprehensive
experiments on the ScanNet and MegaDepth datasets. The experimental results
demonstrate that our Monte Carlo diffusion mechanism significantly improves the
generalization ability of learning-based RANSAC. We also develop extensive
ablation studies that highlight the effectiveness of key components in our
framework.Summary
AI-Generated Summary