ChatPaper.aiChatPaper

Denk in 3D: Geometrische Verbeelding als Basis voor Ruimtelijk Redeneren vanuit Beperkte Perspectieven

Think with 3D: Geometric Imagination Grounded Spatial Reasoning from Limited Views

October 21, 2025
Auteurs: Zhangquan Chen, Manyuan Zhang, Xinlei Yu, Xufang Luo, Mingze Sun, Zihao Pan, Yan Feng, Peng Pei, Xunliang Cai, Ruqi Huang
cs.AI

Samenvatting

Hoewel recente vooruitgang in visie-taalmodellen (VLMs) opmerkelijke vooruitgang heeft geboekt in een breed scala aan multimodale taken, blijft het begrijpen van 3D-ruimtelijke relaties vanuit beperkte gezichtspunten een aanzienlijke uitdaging. Eerdere redeneermethoden vertrouwen doorgaans op pure tekst (bijvoorbeeld topologische cognitieve kaarten) of op 2D-visuele aanwijzingen. Hun beperkte representatievermogen belemmert echter de prestaties bij specifieke taken die 3D-ruimtelijke verbeelding vereisen. Om deze beperking aan te pakken, stellen we 3DThinker voor, een raamwerk dat effectief gebruikmaakt van de rijke geometrische informatie die in afbeeldingen is ingebed tijdens het redeneren, zoals mensen dat doen. Ons raamwerk is het eerste dat 3D-mentaling mogelijk maakt tijdens het redeneren zonder enige 3D-voorafgaande input, en het vertrouwt niet op expliciet gelabelde 3D-gegevens voor training. Specifiek bestaat onze training uit twee fasen. Eerst voeren we gesuperviseerde training uit om de 3D-latente gegenereerd door VLM tijdens het redeneren af te stemmen op die van een 3D-fundamentmodel (bijvoorbeeld VGGT). Vervolgens optimaliseren we het gehele redeneertraject uitsluitend op basis van uitkomstsignalen, waardoor de onderliggende 3D-mentaling wordt verfijnd. Uitgebreide experimenten over meerdere benchmarks tonen aan dat 3DThinker consequent sterke basislijnen overtreft en een nieuw perspectief biedt op het integreren van 3D-representaties in multimodaal redeneren. Onze code zal beschikbaar zijn op https://github.com/zhangquanchen/3DThinker.
English
Though recent advances in vision-language models (VLMs) have achieved remarkable progress across a wide range of multimodal tasks, understanding 3D spatial relationships from limited views remains a significant challenge. Previous reasoning methods typically rely on pure text (e.g., topological cognitive maps) or on 2D visual cues. However, their limited representational capacity hinders performance in specific tasks that require 3D spatial imagination. To address this limitation, we propose 3DThinker, a framework that can effectively exploits the rich geometric information embedded within images while reasoning, like humans do. Our framework is the first to enable 3D mentaling during reasoning without any 3D prior input, and it does not rely on explicitly labeled 3D data for training. Specifically, our training consists of two stages. First, we perform supervised training to align the 3D latent generated by VLM while reasoning with that of a 3D foundation model (e.g., VGGT). Then, we optimize the entire reasoning trajectory solely based on outcome signals, thereby refining the underlying 3D mentaling. Extensive experiments across multiple benchmarks show that 3DThinker consistently outperforms strong baselines and offers a new perspective toward unifying 3D representations into multimodal reasoning. Our code will be available at https://github.com/zhangquanchen/3DThinker.
PDF182October 22, 2025