ChatPaper.aiChatPaper

Lernen aus Videos für die 3D-Welt: Verbesserung von MLLMs durch 3D-Vision-Geometrie-Priors

Learning from Videos for 3D World: Enhancing MLLMs with 3D Vision Geometry Priors

May 30, 2025
Autoren: Duo Zheng, Shijia Huang, Yanyang Li, Liwei Wang
cs.AI

Zusammenfassung

Frühere Forschungen haben die Anwendung Multimodaler Großer Sprachmodelle (MLLMs) zur Interpretation von 3D-Szenen durch deren Darstellung als Videos untersucht. Diese Ansätze basieren in der Regel auf umfangreichen 3D-Dateneingaben, wie Punktwolken oder rekonstruierten Vogelperspektiven-Karten (BEV). In unserer Forschung erweitern wir dieses Feld, indem wir die Fähigkeit von MLLMs verbessern, 3D-Räume direkt aus Videodaten zu verstehen und zu analysieren, ohne zusätzliche 3D-Eingaben zu benötigen. Wir schlagen eine neuartige und effiziente Methode vor, das Video-3D-Geometrie-Große Sprachmodell (VG LLM). Unser Ansatz verwendet einen 3D-visuellen Geometrie-Encoder, der 3D-Priorinformationen aus Videosequenzen extrahiert. Diese Informationen werden mit visuellen Tokens kombiniert und in das MLLM eingespeist. Umfangreiche Experimente haben gezeigt, dass unsere Methode erhebliche Verbesserungen in verschiedenen Aufgaben im Zusammenhang mit dem Verständnis von 3D-Szenen und der räumlichen Argumentation erzielt hat, die alle direkt aus Videoquellen gelernt wurden. Beeindruckenderweise erreicht unser 4B-Modell, das nicht auf explizite 3D-Dateneingaben angewiesen ist, wettbewerbsfähige Ergebnisse im Vergleich zu bestehenden State-of-the-Art-Methoden und übertrifft sogar das Gemini-1.5-Pro in den VSI-Bench-Evaluierungen.
English
Previous research has investigated the application of Multimodal Large Language Models (MLLMs) in understanding 3D scenes by interpreting them as videos. These approaches generally depend on comprehensive 3D data inputs, such as point clouds or reconstructed Bird's-Eye View (BEV) maps. In our research, we advance this field by enhancing the capability of MLLMs to understand and reason in 3D spaces directly from video data, without the need for additional 3D input. We propose a novel and efficient method, the Video-3D Geometry Large Language Model (VG LLM). Our approach employs a 3D visual geometry encoder that extracts 3D prior information from video sequences. This information is integrated with visual tokens and fed into the MLLM. Extensive experiments have shown that our method has achieved substantial improvements in various tasks related to 3D scene understanding and spatial reasoning, all directly learned from video sources. Impressively, our 4B model, which does not rely on explicit 3D data inputs, achieves competitive results compared to existing state-of-the-art methods, and even surpasses the Gemini-1.5-Pro in the VSI-Bench evaluations.
PDF82June 3, 2025