ChatPaper.aiChatPaper

Monte Carlo Diffusion pour un RANSAC basé sur l'apprentissage généralisable

Monte Carlo Diffusion for Generalizable Learning-Based RANSAC

March 12, 2025
Auteurs: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI

Résumé

Le consensus par échantillonnage aléatoire (RANSAC) est une approche fondamentale pour estimer de manière robuste des modèles paramétriques à partir de données bruitées. Les méthodes existantes de RANSAC basées sur l'apprentissage utilisent l'apprentissage profond pour améliorer la robustesse de RANSAC face aux valeurs aberrantes. Cependant, ces approches sont entraînées et testées sur des données générées par les mêmes algorithmes, ce qui limite leur généralisation à des données hors distribution lors de l'inférence. Par conséquent, dans cet article, nous introduisons un nouveau paradigme basé sur la diffusion qui injecte progressivement du bruit dans les données de référence, simulant ainsi les conditions bruitées pour l'entraînement du RANSAC basé sur l'apprentissage. Pour améliorer la diversité des données, nous intégrons un échantillonnage de Monte Carlo dans le paradigme de diffusion, en approximant diverses distributions de données en introduisant différents types de hasard à plusieurs étapes. Nous évaluons notre approche dans le contexte de l'appariement de caractéristiques à travers des expériences approfondies sur les ensembles de données ScanNet et MegaDepth. Les résultats expérimentaux montrent que notre mécanisme de diffusion Monte Carlo améliore significativement la capacité de généralisation du RANSAC basé sur l'apprentissage. Nous développons également des études d'ablation approfondies qui mettent en évidence l'efficacité des composants clés de notre cadre.
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly estimating parametric models from noisy data. Existing learning-based RANSAC methods utilize deep learning to enhance the robustness of RANSAC against outliers. However, these approaches are trained and tested on the data generated by the same algorithms, leading to limited generalization to out-of-distribution data during inference. Therefore, in this paper, we introduce a novel diffusion-based paradigm that progressively injects noise into ground-truth data, simulating the noisy conditions for training learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo sampling into the diffusion paradigm, approximating diverse data distributions by introducing different types of randomness at multiple stages. We evaluate our approach in the context of feature matching through comprehensive experiments on the ScanNet and MegaDepth datasets. The experimental results demonstrate that our Monte Carlo diffusion mechanism significantly improves the generalization ability of learning-based RANSAC. We also develop extensive ablation studies that highlight the effectiveness of key components in our framework.

Summary

AI-Generated Summary

PDF12March 13, 2025