ChatPaper.aiChatPaper

Монте-Карло диффузия для обобщаемого обучения в RANSAC на основе машинного обучения

Monte Carlo Diffusion for Generalizable Learning-Based RANSAC

March 12, 2025
Авторы: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI

Аннотация

Random Sample Consensus (RANSAC) — это фундаментальный подход для устойчивого оценивания параметрических моделей на основе зашумленных данных. Существующие методы RANSAC, основанные на обучении, используют глубокое обучение для повышения устойчивости RANSAC к выбросам. Однако эти подходы обучаются и тестируются на данных, сгенерированных теми же алгоритмами, что приводит к ограниченной обобщающей способности на данные, выходящие за пределы распределения, во время вывода. Поэтому в данной работе мы представляем новую парадигму, основанную на диффузии, которая постепенно добавляет шум в эталонные данные, моделируя зашумленные условия для обучения RANSAC на основе обучения. Для повышения разнообразия данных мы интегрируем метод Монте-Карло в парадигму диффузии, аппроксимируя различные распределения данных за счет введения различных типов случайности на нескольких этапах. Мы оцениваем наш подход в контексте сопоставления признаков с помощью всесторонних экспериментов на наборах данных ScanNet и MegaDepth. Результаты экспериментов показывают, что наш механизм диффузии с использованием Монте-Карло значительно улучшает способность к обобщению RANSAC на основе обучения. Мы также проводим обширные исследования, которые подчеркивают эффективность ключевых компонентов нашей структуры.
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly estimating parametric models from noisy data. Existing learning-based RANSAC methods utilize deep learning to enhance the robustness of RANSAC against outliers. However, these approaches are trained and tested on the data generated by the same algorithms, leading to limited generalization to out-of-distribution data during inference. Therefore, in this paper, we introduce a novel diffusion-based paradigm that progressively injects noise into ground-truth data, simulating the noisy conditions for training learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo sampling into the diffusion paradigm, approximating diverse data distributions by introducing different types of randomness at multiple stages. We evaluate our approach in the context of feature matching through comprehensive experiments on the ScanNet and MegaDepth datasets. The experimental results demonstrate that our Monte Carlo diffusion mechanism significantly improves the generalization ability of learning-based RANSAC. We also develop extensive ablation studies that highlight the effectiveness of key components in our framework.

Summary

AI-Generated Summary

PDF12March 13, 2025