ChatPaper.aiChatPaper

LaS-Comp: Null-Shot-3D-Vervollständigung mit latenter räumlicher Konsistenz

LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency

February 21, 2026
Autoren: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu
cs.AI

Zusammenfassung

Dieses Papier stellt LaS-Comp vor, einen Zero-Shot-Ansatz, der kategorienunabhängig die reichhaltigen geometrischen Priori-Informationen von 3D-Foundation-Modellen nutzt, um 3D-Formvervollständigung über verschiedene Arten von Teilbeobachtungen hinweg zu ermöglichen. Unsere Beiträge sind dreifach: Erstens nutzt unser Ansatz diese leistungsstarken generativen Priori-Informationen für die Vervollständigung durch ein komplementäres Zwei-Stufen-Design: (i) eine explizite Ersetzungsstufe, die die Geometrie der Teilbeobachtung erhält, um eine authentische Vervollständigung zu gewährleisten; und (ii) eine implizite Verfeinerungsstufe, die nahtlose Übergänge zwischen den beobachteten und synthetisierten Bereichen sicherstellt. Zweitens ist unser Framework trainingsfrei und mit verschiedenen 3D-Foundation-Modellen kompatibel. Drittens führen wir Omni-Comp ein, einen umfassenden Benchmark, der reale und synthetische Daten mit verschiedenen und anspruchsvollen Teilmustern kombiniert und so eine gründlichere und realistischere Evaluation ermöglicht. Sowohl quantitative als auch qualitative Experimente zeigen, dass unser Ansatz bisherige State-of-the-Art-Verfahren übertrifft. Unser Code und unsere Daten werden unter https://github.com/DavidYan2001/LaS-Comp verfügbar sein.
English
This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at https://github.com/DavidYan2001/LaS-Comp{LaS-Comp}.
PDF12March 28, 2026