ChatPaper.aiChatPaper

3D CoCa: Контрастные модели как генераторы 3D-описаний

3D CoCa: Contrastive Learners are 3D Captioners

April 13, 2025
Авторы: Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
cs.AI

Аннотация

3D-описание, цель которого заключается в описании содержимого 3D-сцен на естественном языке, остается крайне сложной задачей из-за присущей разреженности облаков точек и слабого межмодального выравнивания в существующих методах. Для решения этих проблем мы предлагаем 3D CoCa — новый унифицированный фреймворк, который бесшовно объединяет контрастивное обучение "визуальный язык" с генерацией 3D-описаний в единой архитектуре. Наш подход использует замороженную основу CLIP для визуального языка, чтобы обеспечить богатые семантические априорные данные, пространственно-осознанный 3D-кодировщик сцены для захвата геометрического контекста и мультимодальный декодер для генерации описательных подписей. В отличие от предыдущих двухэтапных методов, которые полагаются на явные предложения объектов, 3D CoCa совместно оптимизирует контрастивные и описательные цели в общем пространстве признаков, устраняя необходимость во внешних детекторах или ручных предложениях. Этот совместный подход к обучению обеспечивает более сильное пространственное рассуждение и более богатое семантическое заземление за счет выравнивания 3D и текстовых представлений. Масштабные эксперименты на бенчмарках ScanRefer и Nr3D демонстрируют, что 3D CoCa значительно превосходит текущие передовые методы на 10,2% и 5,76% по метрике CIDEr при 0,5IoU соответственно. Код будет доступен по адресу https://github.com/AIGeeksGroup/3DCoCa.
English
3D captioning, which aims to describe the content of 3D scenes in natural language, remains highly challenging due to the inherent sparsity of point clouds and weak cross-modal alignment in existing methods. To address these challenges, we propose 3D CoCa, a novel unified framework that seamlessly combines contrastive vision-language learning with 3D caption generation in a single architecture. Our approach leverages a frozen CLIP vision-language backbone to provide rich semantic priors, a spatially-aware 3D scene encoder to capture geometric context, and a multi-modal decoder to generate descriptive captions. Unlike prior two-stage methods that rely on explicit object proposals, 3D CoCa jointly optimizes contrastive and captioning objectives in a shared feature space, eliminating the need for external detectors or handcrafted proposals. This joint training paradigm yields stronger spatial reasoning and richer semantic grounding by aligning 3D and textual representations. Extensive experiments on the ScanRefer and Nr3D benchmarks demonstrate that 3D CoCa significantly outperforms current state-of-the-arts by 10.2% and 5.76% in CIDEr at 0.5IoU, respectively. Code will be available at https://github.com/AIGeeksGroup/3DCoCa.

Summary

AI-Generated Summary

PDF52April 15, 2025