ChatPaper.aiChatPaper

Avaliação Comparativa do Raciocínio Matemático Multimodal com Dependência Visual Explícita

Benchmarking Multimodal Mathematical Reasoning with Explicit Visual Dependency

April 24, 2025
Autores: Zhikai Wang, Jiashuo Sun, Wenqi Zhang, Zhiqiang Hu, Xin Li, Fan Wang, Deli Zhao
cs.AI

Resumo

Os avanços recentes em Modelos de Visão e Linguagem de Grande Escala (LVLMs, na sigla em inglês) têm aprimorado significativamente sua capacidade de integrar informações visuais e linguísticas, alcançando proficiência quase humana em tarefas como reconhecimento de objetos, geração de legendas e resposta a perguntas visuais. No entanto, os benchmarks atuais geralmente se concentram em avaliações centradas no conhecimento que avaliam a expertise em domínios específicos, muitas vezes negligenciando a capacidade essencial de raciocinar sobre elementos matemáticos fundamentais e conceitos visuais. Identificamos uma lacuna na avaliação de problemas matemáticos de nível elementar, que dependem explicitamente de elementos visuais — exigindo que os modelos discernam, integrem e raciocinem com base em múltiplas imagens, ao mesmo tempo que incorporam conhecimento de senso comum, todos aspectos cruciais para avançar em direção a capacidades mais amplas de AGI (Inteligência Artificial Geral). Para abordar essa lacuna, introduzimos o VCBENCH, um benchmark abrangente para raciocínio matemático multimodal com dependências visuais explícitas. O VCBENCH inclui 1.720 problemas em seis domínios cognitivos, apresentando 6.697 imagens (média de 3,9 por questão) para garantir o raciocínio com múltiplas imagens. Avaliamos 26 LVLMs de última geração no VCBENCH, revelando disparidades substanciais de desempenho, com até mesmo os melhores modelos incapazes de superar 50% de precisão. Nossas descobertas destacam os desafios contínuos na integração visual-matemática e sugerem caminhos para futuros avanços em LVLMs.
English
Recent advancements in Large Vision-Language Models (LVLMs) have significantly enhanced their ability to integrate visual and linguistic information, achieving near-human proficiency in tasks like object recognition, captioning, and visual question answering. However, current benchmarks typically focus on knowledge-centric evaluations that assess domain-specific expertise, often neglecting the core ability to reason about fundamental mathematical elements and visual concepts. We identify a gap in evaluating elementary-level math problems, which rely on explicit visual dependencies-requiring models to discern, integrate, and reason across multiple images while incorporating commonsense knowledge, all of which are crucial for advancing toward broader AGI capabilities. To address this gap, we introduce VCBENCH, a comprehensive benchmark for multimodal mathematical reasoning with explicit visual dependencies. VCBENCH includes 1,720 problems across six cognitive domains, featuring 6,697 images (averaging 3.9 per question) to ensure multi-image reasoning. We evaluate 26 state-of-the-art LVLMs on VCBENCH, revealing substantial performance disparities, with even the top models unable to exceed 50% accuracy. Our findings highlight the ongoing challenges in visual-mathematical integration and suggest avenues for future LVLM advancements.
PDF133April 29, 2025