ChatPaper.aiChatPaper

LaS-Comp : Complétion 3D sans apprentissage préalable avec cohérence latente-spatiale

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
Auteurs: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

Résumé

Ce papier présente LaS-Comp, une approche zero-shot et agnostique aux catégories qui exploite les riches préconnaissances géométriques des modèles de fondation 3D pour permettre la complétion de formes 3D sur divers types d'observations partielles. Nos contributions sont triples : Premièrement, elle exploite ces puissants a priori génératifs pour la complétion via une conception en deux étapes complémentaires : (i) une étape de remplacement explicite qui préserve la géométrie de l'observation partielle pour assurer une complétion fidèle ; et (ii) une étape de raffinement implicite qui garantit des frontières homogènes entre les régions observées et synthétisées. Deuxièmement, notre cadre est exempt d'apprentissage et compatible avec différents modèles de fondation 3D. Troisièmement, nous introduisons Omni-Comp, un benchmark complet combinant des données réelles et synthétiques avec des motifs partiaux diversifiés et exigeants, permettant une évaluation plus approfondie et réaliste. Les expériences quantitatives et qualitatives démontrent que notre approche surpasse les méthodes de l'état de l'art précédentes. Notre code et nos données seront disponibles à l'adresse https://github.com/DavidYan2001/LaS-Comp.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026