ChatPaper.aiChatPaper

3D CoCa: Kontrastive Lernmodelle als 3D-Beschreiber

3D CoCa: Contrastive Learners are 3D Captioners

April 13, 2025
Autoren: Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
cs.AI

Zusammenfassung

Die 3D-Beschriftung, die darauf abzielt, den Inhalt von 3D-Szenen in natürlicher Sprache zu beschreiben, bleibt aufgrund der inhärenten Sparsität von Punktwolken und der schwachen cross-modalen Ausrichtung in bestehenden Methoden äußerst herausfordernd. Um diese Herausforderungen zu bewältigen, schlagen wir 3D CoCa vor, ein neuartiges, einheitliches Framework, das kontrastives Vision-Sprache-Lernen nahtlos mit der Generierung von 3D-Beschriftungen in einer einzigen Architektur kombiniert. Unser Ansatz nutzt ein eingefrorenes CLIP Vision-Sprache-Backbone, um reichhaltige semantische Prioritäten bereitzustellen, einen räumlich bewussten 3D-Szenen-Encoder, um geometrische Kontexte zu erfassen, und einen multimodalen Decoder, um beschreibende Texte zu generieren. Im Gegensatz zu früheren zweistufigen Methoden, die auf expliziten Objektvorschlägen basieren, optimiert 3D CoCa kontrastive und beschriftungsbezogene Ziele gemeinsam in einem gemeinsamen Merkmalsraum, wodurch der Bedarf an externen Detektoren oder handgefertigten Vorschlägen entfällt. Dieses gemeinsame Trainingsparadigma führt zu einer stärkeren räumlichen Argumentation und einer reicheren semantischen Verankerung, indem 3D- und textuelle Repräsentationen ausgerichtet werden. Umfangreiche Experimente auf den Benchmarks ScanRefer und Nr3D zeigen, dass 3D CoCa die aktuellen State-of-the-Art-Methoden bei 0,5IoU signifikant um 10,2 % bzw. 5,76 % im CIDEr-Maß übertrifft. Der Code wird unter https://github.com/AIGeeksGroup/3DCoCa verfügbar sein.
English
3D captioning, which aims to describe the content of 3D scenes in natural language, remains highly challenging due to the inherent sparsity of point clouds and weak cross-modal alignment in existing methods. To address these challenges, we propose 3D CoCa, a novel unified framework that seamlessly combines contrastive vision-language learning with 3D caption generation in a single architecture. Our approach leverages a frozen CLIP vision-language backbone to provide rich semantic priors, a spatially-aware 3D scene encoder to capture geometric context, and a multi-modal decoder to generate descriptive captions. Unlike prior two-stage methods that rely on explicit object proposals, 3D CoCa jointly optimizes contrastive and captioning objectives in a shared feature space, eliminating the need for external detectors or handcrafted proposals. This joint training paradigm yields stronger spatial reasoning and richer semantic grounding by aligning 3D and textual representations. Extensive experiments on the ScanRefer and Nr3D benchmarks demonstrate that 3D CoCa significantly outperforms current state-of-the-arts by 10.2% and 5.76% in CIDEr at 0.5IoU, respectively. Code will be available at https://github.com/AIGeeksGroup/3DCoCa.

Summary

AI-Generated Summary

PDF52April 15, 2025