ChatPaper.aiChatPaper

LaS-Comp: Нулевое дообучение 3D-моделей с латентно-пространственной согласованностью

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
Авторы: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

Аннотация

В данной статье представлен LaS-Comp — бесшовный и категорийно-независимый метод, который использует богатые геометрические априорные знания 3D-фундаментальных моделей для выполнения завершения 3D-форм при работе с разнородными типами частичных наблюдений. Наш вклад трехfold: Во-первых, метод задействует эти мощные генеративные априорные знания для завершения через дополнительную двухэтапную архитектуру: (i) этап явной замены, который сохраняет геометрию частичного наблюдения для обеспечения достоверного завершения; и (ii) этап неявного уточнения, обеспечивающий бесшовные границы между наблюдаемыми и синтезированными областями. Во-вторых, наша framework не требует обучения и совместима с различными 3D-фундаментальными моделями. В-третьих, мы представляем Omni-Comp — комплексный бенчмарк, объединяющий реальные и синтетические данные с разнообразными и сложными частичными паттернами, что позволяет проводить более тщательную и реалистичную оценку. Как количественные, так и качественные эксперименты демонстрируют, что наш метод превосходит предыдущие передовые подходы. Наш код и данные будут доступны по адресу https://github.com/DavidYan2001/LaS-Comp.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026