3D CoCa: Contrastieve Leerders zijn 3D Beschrijvers
3D CoCa: Contrastive Learners are 3D Captioners
April 13, 2025
Auteurs: Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
cs.AI
Samenvatting
3D-captioning, dat als doel heeft de inhoud van 3D-scènes in natuurlijke taal te beschrijven, blijft zeer uitdagend vanwege de inherente schaarste van puntenwolken en de zwakke kruismodale uitlijning in bestaande methoden. Om deze uitdagingen aan te pakken, stellen we 3D CoCa voor, een nieuw geïntegreerd raamwerk dat contrastief visueel-taalleermodel naadloos combineert met 3D-captiongeneratie in een enkele architectuur. Onze aanpak maakt gebruik van een bevroren CLIP visueel-taalmodel als basis om rijke semantische voorkennis te bieden, een ruimtelijk bewuste 3D-scène-encoder om geometrische context vast te leggen, en een multimodale decoder om beschrijvende captions te genereren. In tegenstelling tot eerdere tweestapsmethoden die afhankelijk zijn van expliciete objectvoorstellen, optimaliseert 3D CoCa zowel contrastieve als captioning-doelstellingen gezamenlijk in een gedeelde kenmerkruimte, waardoor externe detectoren of handmatige voorstellen overbodig worden. Dit gezamenlijke trainingsparadigma resulteert in sterkere ruimtelijke redenering en rijkere semantische verankering door 3D- en tekstuele representaties uit te lijnen. Uitgebreide experimenten op de ScanRefer- en Nr3D-benchmarks tonen aan dat 3D CoCa de huidige state-of-the-art aanzienlijk overtreft met respectievelijk 10,2% en 5,76% in CIDEr bij 0,5IoU. De code zal beschikbaar zijn op https://github.com/AIGeeksGroup/3DCoCa.
English
3D captioning, which aims to describe the content of 3D scenes in natural
language, remains highly challenging due to the inherent sparsity of point
clouds and weak cross-modal alignment in existing methods. To address these
challenges, we propose 3D CoCa, a novel unified framework that seamlessly
combines contrastive vision-language learning with 3D caption generation in a
single architecture. Our approach leverages a frozen CLIP vision-language
backbone to provide rich semantic priors, a spatially-aware 3D scene encoder to
capture geometric context, and a multi-modal decoder to generate descriptive
captions. Unlike prior two-stage methods that rely on explicit object
proposals, 3D CoCa jointly optimizes contrastive and captioning objectives in a
shared feature space, eliminating the need for external detectors or
handcrafted proposals. This joint training paradigm yields stronger spatial
reasoning and richer semantic grounding by aligning 3D and textual
representations. Extensive experiments on the ScanRefer and Nr3D benchmarks
demonstrate that 3D CoCa significantly outperforms current state-of-the-arts by
10.2% and 5.76% in CIDEr at 0.5IoU, respectively. Code will be available at
https://github.com/AIGeeksGroup/3DCoCa.Summary
AI-Generated Summary