一般化可能な学習ベースRANSACのためのモンテカルロ拡散法
Monte Carlo Diffusion for Generalizable Learning-Based RANSAC
March 12, 2025
著者: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI
要旨
Random Sample Consensus (RANSAC) は、ノイズの多いデータからロバストにパラメトリックモデルを推定するための基本的なアプローチです。既存の学習ベースのRANSAC手法は、深層学習を活用してRANSACの外れ値に対するロバスト性を向上させています。しかし、これらの手法は同じアルゴリズムによって生成されたデータで訓練およびテストされるため、推論時に分布外データへの汎化能力が限られています。そこで本論文では、学習ベースのRANSACの訓練のために、ノイズの多い条件をシミュレートするために、グラウンドトゥルースデータに段階的にノイズを注入する新しい拡散ベースのパラダイムを提案します。データの多様性を高めるために、モンテカルロサンプリングを拡散パラダイムに組み込み、複数の段階で異なる種類のランダム性を導入することで多様なデータ分布を近似します。ScanNetおよびMegaDepthデータセットを用いた包括的な実験を通じて、特徴マッチングの文脈で本手法を評価します。実験結果は、モンテカルロ拡散メカニズムが学習ベースRANSACの汎化能力を大幅に向上させることを示しています。また、本フレームワークの主要なコンポーネントの有効性を強調する詳細なアブレーション研究も行いました。
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly
estimating parametric models from noisy data. Existing learning-based RANSAC
methods utilize deep learning to enhance the robustness of RANSAC against
outliers. However, these approaches are trained and tested on the data
generated by the same algorithms, leading to limited generalization to
out-of-distribution data during inference. Therefore, in this paper, we
introduce a novel diffusion-based paradigm that progressively injects noise
into ground-truth data, simulating the noisy conditions for training
learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo
sampling into the diffusion paradigm, approximating diverse data distributions
by introducing different types of randomness at multiple stages. We evaluate
our approach in the context of feature matching through comprehensive
experiments on the ScanNet and MegaDepth datasets. The experimental results
demonstrate that our Monte Carlo diffusion mechanism significantly improves the
generalization ability of learning-based RANSAC. We also develop extensive
ablation studies that highlight the effectiveness of key components in our
framework.Summary
AI-Generated Summary