相互作用する平面が3次元ライン写像を明らかにする
Interacted Planes Reveal 3D Line Mapping
February 1, 2026
著者: Zeran Ke, Bin Tan, Gui-Song Xia, Yujun Shen, Nan Xue
cs.AI
要旨
マルチビューRGB画像からの3Dラインマッピングは、シーンをコンパクトかつ構造化された視覚的表現として提供する。本論文ではこの問題を物理的・位相幾何学的観点から考察する:3D線は、有限の3D平面パッチのエッジとして最も自然に発生する。我々は、学習可能な線および平面プリミティブを明示的にモデル化する線-平面共同最適化フレームワーク「LiP-Map」を提案する。この結合により、高い効率性を維持しつつ(典型的にシーンごとに3~5分で再構築を完了)、正確で詳細な3Dラインマッピングを実現する。LiP-Mapは、平面の位相幾何学を3Dラインマッピングに統合する先駆的な手法であり、ペアワイズ共面性制約を課すのではなく、平面プリミティブと線プリミティブ間の相互作用を明示的に構築することで、人工環境における構造化された再構築への原理的な道筋を提供する。ScanNetV2、ScanNet++、Hypersim、7Scenes、Tanks&Templeの100シーン以上において、LiP-Mapは既存の最先端手法を精度と完全性の両面で上回った。さらに、ラインマッピングの品質を超えて、LiP-Mapは線支援視覚的ローカリゼーションを大幅に進展させ、7Scenesにおいて強力な性能を確立した。再現可能な研究のため、コードはhttps://github.com/calmke/LiPMap で公開している。
English
3D line mapping from multi-view RGB images provides a compact and structured visual representation of scenes. We study the problem from a physical and topological perspective: a 3D line most naturally emerges as the edge of a finite 3D planar patch. We present LiP-Map, a line-plane joint optimization framework that explicitly models learnable line and planar primitives. This coupling enables accurate and detailed 3D line mapping while maintaining strong efficiency (typically completing a reconstruction in 3 to 5 minutes per scene). LiP-Map pioneers the integration of planar topology into 3D line mapping, not by imposing pairwise coplanarity constraints but by explicitly constructing interactions between plane and line primitives, thus offering a principled route toward structured reconstruction in man-made environments. On more than 100 scenes from ScanNetV2, ScanNet++, Hypersim, 7Scenes, and Tanks\&Temple, LiP-Map improves both accuracy and completeness over state-of-the-art methods. Beyond line mapping quality, LiP-Map significantly advances line-assisted visual localization, establishing strong performance on 7Scenes. Our code is released at https://github.com/calmke/LiPMAP for reproducible research.