ChatPaper.aiChatPaper

Aprendizado a partir de Vídeos para o Mundo 3D: Aprimorando MLLMs com Prioridades de Visão 3D e Geometria

Learning from Videos for 3D World: Enhancing MLLMs with 3D Vision Geometry Priors

May 30, 2025
Autores: Duo Zheng, Shijia Huang, Yanyang Li, Liwei Wang
cs.AI

Resumo

Pesquisas anteriores investigaram a aplicação de Modelos de Linguagem Multimodais de Grande Escala (MLLMs) na compreensão de cenas 3D, interpretando-as como vídeos. Essas abordagens geralmente dependem de entradas abrangentes de dados 3D, como nuvens de pontos ou mapas reconstruídos de Visão de Cima para Baixo (BEV). Em nossa pesquisa, avançamos nesse campo ao aprimorar a capacidade dos MLLMs de entender e raciocinar em espaços 3D diretamente a partir de dados de vídeo, sem a necessidade de entradas adicionais de dados 3D. Propomos um método novo e eficiente, o Modelo de Linguagem de Grande Escala de Geometria 3D a partir de Vídeo (VG LLM). Nossa abordagem emprega um codificador de geometria visual 3D que extrai informações prévias de 3D a partir de sequências de vídeo. Essas informações são integradas com tokens visuais e alimentadas no MLLM. Experimentos extensivos mostraram que nosso método alcançou melhorias substanciais em várias tarefas relacionadas à compreensão de cenas 3D e raciocínio espacial, todas aprendidas diretamente a partir de fontes de vídeo. Impressionantemente, nosso modelo de 4B, que não depende de entradas explícitas de dados 3D, alcança resultados competitivos em comparação com os métodos state-of-the-art existentes, e até supera o Gemini-1.5-Pro nas avaliações do VSI-Bench.
English
Previous research has investigated the application of Multimodal Large Language Models (MLLMs) in understanding 3D scenes by interpreting them as videos. These approaches generally depend on comprehensive 3D data inputs, such as point clouds or reconstructed Bird's-Eye View (BEV) maps. In our research, we advance this field by enhancing the capability of MLLMs to understand and reason in 3D spaces directly from video data, without the need for additional 3D input. We propose a novel and efficient method, the Video-3D Geometry Large Language Model (VG LLM). Our approach employs a 3D visual geometry encoder that extracts 3D prior information from video sequences. This information is integrated with visual tokens and fed into the MLLM. Extensive experiments have shown that our method has achieved substantial improvements in various tasks related to 3D scene understanding and spatial reasoning, all directly learned from video sources. Impressively, our 4B model, which does not rely on explicit 3D data inputs, achieves competitive results compared to existing state-of-the-art methods, and even surpasses the Gemini-1.5-Pro in the VSI-Bench evaluations.
PDF82June 3, 2025