ChatPaper.aiChatPaper

MME-Reasoning: Ein umfassender Benchmark für logisches Denken in MLLMs

MME-Reasoning: A Comprehensive Benchmark for Logical Reasoning in MLLMs

May 27, 2025
Autoren: Jiakang Yuan, Tianshuo Peng, Yilei Jiang, Yiting Lu, Renrui Zhang, Kaituo Feng, Chaoyou Fu, Tao Chen, Lei Bai, Bo Zhang, Xiangyu Yue
cs.AI

Zusammenfassung

Logisches Denken ist ein grundlegender Aspekt der menschlichen Intelligenz und eine wesentliche Fähigkeit für multimodale große Sprachmodelle (MLLMs). Trotz erheblicher Fortschritte im Bereich des multimodalen Denkens versagen bestehende Benchmarks bei der umfassenden Bewertung ihrer Denkfähigkeiten, da es an einer expliziten Kategorisierung von logischen Denktypen und einem klaren Verständnis des Denkens mangelt. Um diese Probleme zu lösen, stellen wir MME-Reasoning vor, einen umfassenden Benchmark, der entwickelt wurde, um die Denkfähigkeit von MLLMs zu bewerten und dabei alle drei Denktypen (d. h. induktiv, deduktiv und abduktiv) in seinen Fragen abdeckt. Wir haben die Daten sorgfältig kuratiert, um sicherzustellen, dass jede Frage die Denkfähigkeit effektiv bewertet und nicht Wahrnehmungsfähigkeiten oder Wissensbreite, und haben die Bewertungsprotokolle erweitert, um die Bewertung vielfältiger Fragen abzudecken. Unsere Bewertung zeigt erhebliche Einschränkungen der modernsten MLLMs bei ganzheitlichen Bewertungen der logischen Denkfähigkeiten. Selbst die fortschrittlichsten MLLMs zeigen begrenzte Leistung beim umfassenden logischen Denken, mit bemerkenswerten Leistungsungleichgewichten über die Denktypen hinweg. Darüber hinaus haben wir eine detaillierte Analyse von Ansätzen wie dem „Denkmodus“ und regelbasiertem RL durchgeführt, von denen allgemein angenommen wird, dass sie die Denkfähigkeiten verbessern. Diese Ergebnisse verdeutlichen die kritischen Einschränkungen und Leistungsungleichgewichte aktueller MLLMs in verschiedenen logischen Denkszenarien und bieten umfassende und systematische Einblicke in das Verständnis und die Bewertung von Denkfähigkeiten.
English
Logical reasoning is a fundamental aspect of human intelligence and an essential capability for multimodal large language models (MLLMs). Despite the significant advancement in multimodal reasoning, existing benchmarks fail to comprehensively evaluate their reasoning abilities due to the lack of explicit categorization for logical reasoning types and an unclear understanding of reasoning. To address these issues, we introduce MME-Reasoning, a comprehensive benchmark designed to evaluate the reasoning ability of MLLMs, which covers all three types of reasoning (i.e., inductive, deductive, and abductive) in its questions. We carefully curate the data to ensure that each question effectively evaluates reasoning ability rather than perceptual skills or knowledge breadth, and extend the evaluation protocols to cover the evaluation of diverse questions. Our evaluation reveals substantial limitations of state-of-the-art MLLMs when subjected to holistic assessments of logical reasoning capabilities. Even the most advanced MLLMs show limited performance in comprehensive logical reasoning, with notable performance imbalances across reasoning types. In addition, we conducted an in-depth analysis of approaches such as ``thinking mode'' and Rule-based RL, which are commonly believed to enhance reasoning abilities. These findings highlight the critical limitations and performance imbalances of current MLLMs in diverse logical reasoning scenarios, providing comprehensive and systematic insights into the understanding and evaluation of reasoning capabilities.

Summary

AI-Generated Summary

PDF813May 28, 2025