ChatPaper.aiChatPaper

LaS-Comp: 잠재-공간 일관성을 활용한 제로샷 3D 완성

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
저자: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

초록

본 논문은 다양한 부분 관측 유형에 걸쳐 3D 형상 완성을 가능하게 하는 3D 파운데이션 모델의 풍부한 기하학적 사전 지식을 활용하는 제로샷 및 범주 불문 접근법인 LaS-Comp을 소개합니다. 본 연구의 기여는 세 가지입니다. 첫째, 상호 보완적인 두 단계 설계를 통해 이러한 강력한 생성적 사전 지식을 완성 작업에 활용합니다: (i) 부분 관측 기하구조를 보존하여 충실한 완성을 보장하는 명시적 대체 단계; (ii) 관측 영역과 합성 영역 사이의 경계를 매끄럽게 만드는 암시적 정제 단계. 둘째, 우리 프레임워크는 학습이 필요 없으며 다양한 3D 파운데이션 모델과 호환됩니다. 셋째, 실제 및 합성 데이터를 다양한 난이도의 부분 패턴과 결합한 포괄적인 벤치마크인 Omni-Comp을 도입하여 더욱 철저하고 현실적인 평가를 가능하게 합니다. 정량적 및 정성적 실험 모두에서 우리의 접근법이 기존 최신 기술을 능가함을 보여줍니다. 우리의 코드와 데이터는 https://github.com/DavidYan2001/LaS-Comp에서 공개될 예정입니다.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026