LaS-Comp: Completado 3D Zero-shot con Consistencia Latente-Espacial
LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency
February 21, 2026
Autores: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI
Resumen
Este artículo presenta LaS-Comp, un método de cero-shot y agnóstico a categorías que aprovecha los ricos priores geométricos de los modelos fundacionales 3D para permitir la compleción de formas 3D en diversos tipos de observaciones parciales. Nuestras contribuciones son tres: En primer lugar, se aprovechan estos potentes priores generativos para la compleción mediante un diseño complementario en dos etapas: (i) una etapa de reemplazo explícito que preserva la geometría de la observación parcial para garantizar una compleción fiel; y (ii) una etapa de refinamiento implícito que asegura límites sin discontinuidades entre las regiones observadas y las sintetizadas. En segundo lugar, nuestro marco es libre de entrenamiento y compatible con diferentes modelos fundacionales 3D. En tercer lugar, presentamos Omni-Comp, un benchmark integral que combina datos del mundo real y sintéticos con diversos y desafiantes patrones de parcialidad, permitiendo una evaluación más exhaustiva y realista. Tanto los experimentos cuantitativos como los cualitativos demuestran que nuestro método supera a los enfoques anteriores del estado del arte. Nuestro código y datos estarán disponibles en https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.