ChatPaper.aiChatPaper

Обучение на видеоданных для 3D-мира: Улучшение мультимодальных языковых моделей с использованием геометрических приоритетов в 3D-зрении

Learning from Videos for 3D World: Enhancing MLLMs with 3D Vision Geometry Priors

May 30, 2025
Авторы: Duo Zheng, Shijia Huang, Yanyang Li, Liwei Wang
cs.AI

Аннотация

Предыдущие исследования изучали применение мультимодальных больших языковых моделей (MLLM) для понимания 3D-сцен путем их интерпретации как видеопоследовательностей. Эти подходы, как правило, зависят от комплексных входных данных 3D, таких как облака точек или реконструированные карты вида с высоты птичьего полета (BEV). В нашей работе мы продвигаем эту область, улучшая способность MLLM понимать и рассуждать в 3D-пространствах непосредственно на основе видеоданных, без необходимости дополнительных 3D-входов. Мы предлагаем новый и эффективный метод — Video-3D Geometry Large Language Model (VG LLM). Наш подход использует 3D визуальный геометрический кодировщик, который извлекает априорную 3D-информацию из видеопоследовательностей. Эта информация интегрируется с визуальными токенами и передается в MLLM. Многочисленные эксперименты показали, что наш метод достиг значительных улучшений в различных задачах, связанных с пониманием 3D-сцен и пространственным рассуждением, при этом обучение происходит непосредственно на основе видеоисточников. Примечательно, что наша 4B-модель, которая не использует явные 3D-данные, демонстрирует конкурентоспособные результаты по сравнению с существующими передовыми методами и даже превосходит Gemini-1.5-Pro в оценках VSI-Bench.
English
Previous research has investigated the application of Multimodal Large Language Models (MLLMs) in understanding 3D scenes by interpreting them as videos. These approaches generally depend on comprehensive 3D data inputs, such as point clouds or reconstructed Bird's-Eye View (BEV) maps. In our research, we advance this field by enhancing the capability of MLLMs to understand and reason in 3D spaces directly from video data, without the need for additional 3D input. We propose a novel and efficient method, the Video-3D Geometry Large Language Model (VG LLM). Our approach employs a 3D visual geometry encoder that extracts 3D prior information from video sequences. This information is integrated with visual tokens and fed into the MLLM. Extensive experiments have shown that our method has achieved substantial improvements in various tasks related to 3D scene understanding and spatial reasoning, all directly learned from video sources. Impressively, our 4B model, which does not rely on explicit 3D data inputs, achieves competitive results compared to existing state-of-the-art methods, and even surpasses the Gemini-1.5-Pro in the VSI-Bench evaluations.
PDF82June 3, 2025