ChatPaper.aiChatPaper

MME-Reasoning: Un punto de referencia integral para el razonamiento lógico en MLLMs

MME-Reasoning: A Comprehensive Benchmark for Logical Reasoning in MLLMs

May 27, 2025
Autores: Jiakang Yuan, Tianshuo Peng, Yilei Jiang, Yiting Lu, Renrui Zhang, Kaituo Feng, Chaoyou Fu, Tao Chen, Lei Bai, Bo Zhang, Xiangyu Yue
cs.AI

Resumen

El razonamiento lógico es un aspecto fundamental de la inteligencia humana y una capacidad esencial para los modelos de lenguaje multimodal de gran escala (MLLMs, por sus siglas en inglés). A pesar de los avances significativos en el razonamiento multimodal, los puntos de referencia existentes no logran evaluar de manera integral sus habilidades de razonamiento debido a la falta de una categorización explícita de los tipos de razonamiento lógico y a una comprensión poco clara del razonamiento. Para abordar estos problemas, presentamos MME-Reasoning, un punto de referencia integral diseñado para evaluar la capacidad de razonamiento de los MLLMs, el cual cubre los tres tipos de razonamiento (es decir, inductivo, deductivo y abductivo) en sus preguntas. Cuidadosamente seleccionamos los datos para asegurar que cada pregunta evalúe efectivamente la capacidad de razonamiento en lugar de habilidades perceptivas o amplitud de conocimiento, y extendemos los protocolos de evaluación para cubrir la evaluación de preguntas diversas. Nuestra evaluación revela limitaciones sustanciales de los MLLMs más avanzados cuando se someten a evaluaciones holísticas de capacidades de razonamiento lógico. Incluso los MLLMs más avanzados muestran un rendimiento limitado en el razonamiento lógico integral, con desequilibrios notables en el rendimiento entre los tipos de razonamiento. Además, realizamos un análisis en profundidad de enfoques como el "modo de pensamiento" y el RL basado en reglas, que comúnmente se cree que mejoran las habilidades de razonamiento. Estos hallazgos resaltan las limitaciones críticas y los desequilibrios de rendimiento de los MLLMs actuales en diversos escenarios de razonamiento lógico, proporcionando una comprensión y evaluación integral y sistemática de las capacidades de razonamiento.
English
Logical reasoning is a fundamental aspect of human intelligence and an essential capability for multimodal large language models (MLLMs). Despite the significant advancement in multimodal reasoning, existing benchmarks fail to comprehensively evaluate their reasoning abilities due to the lack of explicit categorization for logical reasoning types and an unclear understanding of reasoning. To address these issues, we introduce MME-Reasoning, a comprehensive benchmark designed to evaluate the reasoning ability of MLLMs, which covers all three types of reasoning (i.e., inductive, deductive, and abductive) in its questions. We carefully curate the data to ensure that each question effectively evaluates reasoning ability rather than perceptual skills or knowledge breadth, and extend the evaluation protocols to cover the evaluation of diverse questions. Our evaluation reveals substantial limitations of state-of-the-art MLLMs when subjected to holistic assessments of logical reasoning capabilities. Even the most advanced MLLMs show limited performance in comprehensive logical reasoning, with notable performance imbalances across reasoning types. In addition, we conducted an in-depth analysis of approaches such as ``thinking mode'' and Rule-based RL, which are commonly believed to enhance reasoning abilities. These findings highlight the critical limitations and performance imbalances of current MLLMs in diverse logical reasoning scenarios, providing comprehensive and systematic insights into the understanding and evaluation of reasoning capabilities.

Summary

AI-Generated Summary

PDF813May 28, 2025