ChatPaper.aiChatPaper

VisuLogic: Een Benchmark voor het Evalueren van Visueel Redeneren in Multi-modale Grote Taalmodellen

VisuLogic: A Benchmark for Evaluating Visual Reasoning in Multi-modal Large Language Models

April 21, 2025
Auteurs: Weiye Xu, Jiahao Wang, Weiyun Wang, Zhe Chen, Wengang Zhou, Aijun Yang, Lewei Lu, Houqiang Li, Xiaohua Wang, Xizhou Zhu, Wenhai Wang, Jifeng Dai, Jinguo Zhu
cs.AI

Samenvatting

Visueel redeneren is een kerncomponent van menselijke intelligentie en een cruciale vaardigheid voor geavanceerde multimodale modellen. Toch baseren huidige evaluaties van multimodale grote taalmodellen (MLLMs) zich vaak op tekstbeschrijvingen en staan ze taalgebaseerde redeneersnelwegen toe, waardoor ze niet in staat zijn om echt visiegericht redeneren te meten. Om dit aan te pakken, introduceren we VisuLogic: een benchmark van 1.000 door mensen geverifieerde problemen in zes categorieën (bijv. kwantitatieve verschuivingen, ruimtelijke relaties, attribuutvergelijkingen). Deze verschillende soorten vragen kunnen worden geëvalueerd om de visuele redeneervaardigheden van MLLMs vanuit meerdere perspectieven te beoordelen. We evalueren toonaangevende MLLMs op deze benchmark en analyseren hun resultaten om veelvoorkomende foutmodi te identificeren. De meeste modellen scoren onder de 30% nauwkeurigheid – slechts iets boven de 25% willekeurige basislijn en ver onder de 51,4% die door mensen wordt behaald – wat significante tekortkomingen in visueel redeneren aan het licht brengt. Bovendien bieden we een aanvullende trainingsdataset en een reinforcement-learning basislijn om verdere vooruitgang te ondersteunen.
English
Visual reasoning is a core component of human intelligence and a critical capability for advanced multimodal models. Yet current reasoning evaluations of multimodal large language models (MLLMs) often rely on text descriptions and allow language-based reasoning shortcuts, failing to measure genuine vision-centric reasoning. To address this, we introduce VisuLogic: a benchmark of 1,000 human-verified problems across six categories (e.g., quantitative shifts, spatial relations, attribute comparisons). These various types of questions can be evaluated to assess the visual reasoning capabilities of MLLMs from multiple perspectives. We evaluate leading MLLMs on this benchmark and analyze their results to identify common failure modes. Most models score below 30% accuracy-only slightly above the 25% random baseline and far below the 51.4% achieved by humans-revealing significant gaps in visual reasoning. Furthermore, we provide a supplementary training dataset and a reinforcement-learning baseline to support further progress.

Summary

AI-Generated Summary

PDF712April 24, 2025