3D CoCa: Los Modelos de Aprendizaje por Contraste son Generadores de Descripciones 3D
3D CoCa: Contrastive Learners are 3D Captioners
April 13, 2025
Autores: Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
cs.AI
Resumen
La generación de descripciones en 3D, que tiene como objetivo describir el contenido de escenas 3D en lenguaje natural, sigue siendo un desafío significativo debido a la inherente dispersión de las nubes de puntos y la débil alineación multimodal en los métodos existentes. Para abordar estos desafíos, proponemos 3D CoCa, un marco unificado novedoso que combina de manera fluida el aprendizaje contrastivo visión-lenguaje con la generación de descripciones en 3D en una única arquitectura. Nuestro enfoque aprovecha un modelo base congelado de CLIP visión-lenguaje para proporcionar ricos conocimientos semánticos previos, un codificador de escenas 3D espacialmente consciente para capturar el contexto geométrico, y un decodificador multimodal para generar descripciones detalladas. A diferencia de los métodos previos de dos etapas que dependen de propuestas explícitas de objetos, 3D CoCa optimiza conjuntamente los objetivos contrastivos y de generación de descripciones en un espacio de características compartido, eliminando la necesidad de detectores externos o propuestas manuales. Este paradigma de entrenamiento conjunto produce un razonamiento espacial más robusto y una base semántica más rica al alinear las representaciones 3D y textuales. Experimentos exhaustivos en los benchmarks ScanRefer y Nr3D demuestran que 3D CoCa supera significativamente a los métodos más avanzados actuales en un 10.2% y 5.76% en CIDEr a 0.5IoU, respectivamente. El código estará disponible en https://github.com/AIGeeksGroup/3DCoCa.
English
3D captioning, which aims to describe the content of 3D scenes in natural
language, remains highly challenging due to the inherent sparsity of point
clouds and weak cross-modal alignment in existing methods. To address these
challenges, we propose 3D CoCa, a novel unified framework that seamlessly
combines contrastive vision-language learning with 3D caption generation in a
single architecture. Our approach leverages a frozen CLIP vision-language
backbone to provide rich semantic priors, a spatially-aware 3D scene encoder to
capture geometric context, and a multi-modal decoder to generate descriptive
captions. Unlike prior two-stage methods that rely on explicit object
proposals, 3D CoCa jointly optimizes contrastive and captioning objectives in a
shared feature space, eliminating the need for external detectors or
handcrafted proposals. This joint training paradigm yields stronger spatial
reasoning and richer semantic grounding by aligning 3D and textual
representations. Extensive experiments on the ScanRefer and Nr3D benchmarks
demonstrate that 3D CoCa significantly outperforms current state-of-the-arts by
10.2% and 5.76% in CIDEr at 0.5IoU, respectively. Code will be available at
https://github.com/AIGeeksGroup/3DCoCa.Summary
AI-Generated Summary