ChatPaper.aiChatPaper

Quão Longe Estão os VLMs da Inteligência Espacial Visual? Uma Perspectiva Baseada em Benchmarking

How Far are VLMs from Visual Spatial Intelligence? A Benchmark-Driven Perspective

September 23, 2025
Autores: Songsong Yu, Yuxin Chen, Hao Ju, Lianjie Jia, Fuxi Zhang, Shaofei Huang, Yuhan Wu, Rundi Cui, Binghao Ran, Zaibin Zhang, Zhedong Zheng, Zhipeng Zhang, Yifan Wang, Lin Song, Lijun Wang, Yanwei Li, Ying Shan, Huchuan Lu
cs.AI

Resumo

O Raciocínio Visual Espacial (VSR) é uma capacidade cognitiva humana fundamental e um requisito crítico para o avanço da inteligência incorporada e de sistemas autônomos. Apesar dos recentes progressos nos Modelos de Visão e Linguagem (VLMs), alcançar um nível humano de VSR continua sendo altamente desafiador devido à complexidade de representar e raciocinar sobre o espaço tridimensional. Neste artigo, apresentamos uma investigação sistemática do VSR em VLMs, abrangendo uma revisão das metodologias existentes em modalidades de entrada, arquiteturas de modelos, estratégias de treinamento e mecanismos de raciocínio. Além disso, categorizamos a inteligência espacial em três níveis de capacidade, ou seja, percepção básica, compreensão espacial, planejamento espacial, e criamos o SIBench, um benchmark de inteligência espacial que engloba quase 20 conjuntos de dados de código aberto em 23 configurações de tarefas. Experimentos com VLMs de última geração revelam uma lacuna pronunciada entre percepção e raciocínio, já que os modelos demonstram competência em tarefas perceptivas básicas, mas consistentemente têm desempenho inferior em tarefas de compreensão e planejamento, particularmente em estimativa numérica, raciocínio multivisão, dinâmica temporal e imaginação espacial. Essas descobertas destacam os desafios substanciais que permanecem para alcançar a inteligência espacial, ao mesmo tempo em que fornecem um roteiro sistemático e um benchmark abrangente para impulsionar pesquisas futuras na área. Os recursos relacionados a este estudo estão acessíveis em https://sibench.github.io/Awesome-Visual-Spatial-Reasoning/.
English
Visual Spatial Reasoning (VSR) is a core human cognitive ability and a critical requirement for advancing embodied intelligence and autonomous systems. Despite recent progress in Vision-Language Models (VLMs), achieving human-level VSR remains highly challenging due to the complexity of representing and reasoning over three-dimensional space. In this paper, we present a systematic investigation of VSR in VLMs, encompassing a review of existing methodologies across input modalities, model architectures, training strategies, and reasoning mechanisms. Furthermore, we categorize spatial intelligence into three levels of capability, ie, basic perception, spatial understanding, spatial planning, and curate SIBench, a spatial intelligence benchmark encompassing nearly 20 open-source datasets across 23 task settings. Experiments with state-of-the-art VLMs reveal a pronounced gap between perception and reasoning, as models show competence in basic perceptual tasks but consistently underperform in understanding and planning tasks, particularly in numerical estimation, multi-view reasoning, temporal dynamics, and spatial imagination. These findings underscore the substantial challenges that remain in achieving spatial intelligence, while providing both a systematic roadmap and a comprehensive benchmark to drive future research in the field. The related resources of this study are accessible at https://sibench.github.io/Awesome-Visual-Spatial-Reasoning/.
PDF282September 25, 2025