ChatPaper.aiChatPaper

LaS-Comp: Preenchimento 3D Zero-shot com Consistência Latente-Espacial

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
Autores: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

Resumo

Este artigo apresenta o LaS-Comp, uma abordagem *zero-shot* e agnóstica a categorias que aproveita os ricos *priors* geométricos de modelos de base (*foundation models*) 3D para permitir a completação de formas 3D em diversos tipos de observações parciais. Nossas contribuições são triplas: Primeiro, o método aproveita esses poderosos *priors* generativos para completação por meio de um design complementar em dois estágios: (i) um estágio de substituição explícita que preserva a geometria da observação parcial para garantir uma completação fiel; e (ii) um estágio de refinamento implícito que garante limites perfeitos entre as regiões observadas e as sintetizadas. Segundo, nossa estrutura é livre de treinamento (*training-free*) e compatível com diferentes modelos de base 3D. Terceiro, introduzimos o Omni-Comp, um *benchmark* abrangente que combina dados do mundo real e sintéticos com padrões parciais diversos e desafiadores, permitindo uma avaliação mais completa e realista. Experimentos quantitativos e qualitativos demonstram que nossa abordagem supera as abordagens anteriores state-of-the-art. Nosso código e dados estarão disponíveis em https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026