ChatPaper.aiChatPaper

LaS-Comp: 潜在空間的一貫性によるゼロショット3D補完

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
著者: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

要旨

本論文では、3D基盤モデルが持つ豊富な幾何学的事前知識を活用し、多様な種類の部分観測に対して3D形状補完を可能にする、ゼロショットかつカテゴリに依存しないアプローチ「LaS-Comp」を提案する。我々の貢献は三つある。第一に、相補的な二段階設計を通して、これらの強力な生成的事前知識を補完タスクに利用する:(i)部分観測の幾何学を保存して忠実な補完を保証する明示的置換段階と、(ii)観測領域と合成領域の間のシームレスな境界を確保する暗黙的精緻化段階である。第二に、本フレームワークは学習不要であり、異なる3D基盤モデルと互換性がある。第三に、実世界データと合成データを組み合わせ、多様で挑戦的な部分形状パターンを含む包括的ベンチマーク「Omni-Comp」を導入し、より徹底的で現実的な評価を可能にする。定量的および定性的な実験の両方において、本アプローチが従来の最先端手法を凌駕することを示す。コードとデータはhttps://github.com/DavidYan2001/LaS-Compで公開予定である。
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026