ChatPaper.aiChatPaper

LaS-Comp: Completamento 3D Zero-shot con Consistenza Latente-Spaziale

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
Autori: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

Abstract

Questo articolo presenta LaS-Comp, un approccio zero-shot e agnostico alla categoria che sfrutta i ricchi prior geometrici dei modelli fondazionali 3D per abilitare il completamento di forme 3D su diversi tipi di osservazioni parziali. I nostri contributi sono tre: Primo, sfrutta questi potenti prior generativi per il completamento attraverso un design complementare a due stadi: (i) uno stadio di sostituzione esplicita che preserva la geometria dell'osservazione parziale per garantire un completamento fedele; e (ii) uno stadio di rifinitura implicita che associa transizioni seamless tra le regioni osservate e quelle sintetizzate. Secondo, la nostra architettura è training-free e compatibile con diversi modelli fondazionali 3D. Terzo, introduciamo Omni-Comp, un benchmark completo che combina dati del mondo reale e sintetici con pattern parziali diversificati e impegnativi, consentendo una valutazione più approfondita e realistica. Esperimenti sia quantitativi che qualitativi dimostrano che il nostro approccio supera i precedenti stati dell'arte. Il nostro codice e i dati saranno disponibili su https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026