ChatPaper.aiChatPaper

一般化可能な学習ベースRANSACのためのモンテカルロ拡散法

Monte Carlo Diffusion for Generalizable Learning-Based RANSAC

March 12, 2025
著者: Jiale Wang, Chen Zhao, Wei Ke, Tong Zhang
cs.AI

要旨

Random Sample Consensus (RANSAC) は、ノイズの多いデータからロバストにパラメトリックモデルを推定するための基本的なアプローチです。既存の学習ベースのRANSAC手法は、深層学習を活用してRANSACの外れ値に対するロバスト性を向上させています。しかし、これらの手法は同じアルゴリズムによって生成されたデータで訓練およびテストされるため、推論時に分布外データへの汎化能力が限られています。そこで本論文では、学習ベースのRANSACの訓練のために、ノイズの多い条件をシミュレートするために、グラウンドトゥルースデータに段階的にノイズを注入する新しい拡散ベースのパラダイムを提案します。データの多様性を高めるために、モンテカルロサンプリングを拡散パラダイムに組み込み、複数の段階で異なる種類のランダム性を導入することで多様なデータ分布を近似します。ScanNetおよびMegaDepthデータセットを用いた包括的な実験を通じて、特徴マッチングの文脈で本手法を評価します。実験結果は、モンテカルロ拡散メカニズムが学習ベースRANSACの汎化能力を大幅に向上させることを示しています。また、本フレームワークの主要なコンポーネントの有効性を強調する詳細なアブレーション研究も行いました。
English
Random Sample Consensus (RANSAC) is a fundamental approach for robustly estimating parametric models from noisy data. Existing learning-based RANSAC methods utilize deep learning to enhance the robustness of RANSAC against outliers. However, these approaches are trained and tested on the data generated by the same algorithms, leading to limited generalization to out-of-distribution data during inference. Therefore, in this paper, we introduce a novel diffusion-based paradigm that progressively injects noise into ground-truth data, simulating the noisy conditions for training learning-based RANSAC. To enhance data diversity, we incorporate Monte Carlo sampling into the diffusion paradigm, approximating diverse data distributions by introducing different types of randomness at multiple stages. We evaluate our approach in the context of feature matching through comprehensive experiments on the ScanNet and MegaDepth datasets. The experimental results demonstrate that our Monte Carlo diffusion mechanism significantly improves the generalization ability of learning-based RANSAC. We also develop extensive ablation studies that highlight the effectiveness of key components in our framework.

Summary

AI-Generated Summary

PDF12March 13, 2025