ChatPaper.aiChatPaper

MorphoBench: Un punto de referencia con dificultad adaptable al razonamiento del modelo

MorphoBench: A Benchmark with Difficulty Adaptive to Model Reasoning

October 16, 2025
Autores: Xukai Wang, Xuanbo Liu, Mingrui Chen, Haitian Zhong, Xuanlin Yang, Bohan Zeng, Jinbo Hu, Hao Liang, Junbo Niu, Xuchen Li, Ruitao Wu, Ruichuan An, Yang Shi, Liu Liu, Xu-Yao Zhang, Qiang Liu, Zhouchen Lin, Wentao Zhang, Bin Dong
cs.AI

Resumen

Con el avance de potentes modelos de razonamiento a gran escala, evaluar de manera efectiva las capacidades de razonamiento de estos modelos se ha vuelto cada vez más importante. Sin embargo, los puntos de referencia existentes diseñados para evaluar las habilidades de razonamiento de modelos grandes tienden a ser limitados en alcance y carecen de la flexibilidad necesaria para adaptar su dificultad según las capacidades de razonamiento en evolución de los modelos. Para abordar esto, proponemos MorphoBench, un punto de referencia que incorpora preguntas multidisciplinarias para evaluar las capacidades de razonamiento de modelos grandes y puede ajustar y actualizar la dificultad de las preguntas basándose en las habilidades de razonamiento de modelos avanzados. Específicamente, hemos curado este punto de referencia seleccionando y recopilando preguntas complejas de razonamiento de puntos de referencia existentes y fuentes como competencias de nivel olímpico. Además, MorphoBench modifica de manera adaptativa el desafío analítico de las preguntas aprovechando declaraciones clave generadas durante el proceso de razonamiento del modelo. Asimismo, incluye preguntas generadas utilizando software de simulación, lo que permite el ajuste dinámico de la dificultad del punto de referencia con un consumo mínimo de recursos. Hemos recopilado más de 1,300 preguntas de prueba y ajustado iterativamente la dificultad de MorphoBench basándonos en las capacidades de razonamiento de modelos como o3 y GPT-5. MorphoBench mejora la exhaustividad y validez de la evaluación del razonamiento de los modelos, proporcionando una guía confiable para mejorar tanto las habilidades de razonamiento como la solidez científica de los modelos grandes. El código ha sido publicado en https://github.com/OpenDCAI/MorphoBench.
English
With the advancement of powerful large-scale reasoning models, effectively evaluating the reasoning capabilities of these models has become increasingly important. However, existing benchmarks designed to assess the reasoning abilities of large models tend to be limited in scope and lack the flexibility to adapt their difficulty according to the evolving reasoning capacities of the models. To address this, we propose MorphoBench, a benchmark that incorporates multidisciplinary questions to evaluate the reasoning capabilities of large models and can adjust and update question difficulty based on the reasoning abilities of advanced models. Specifically, we curate the benchmark by selecting and collecting complex reasoning questions from existing benchmarks and sources such as Olympiad-level competitions. Additionally, MorphoBench adaptively modifies the analytical challenge of questions by leveraging key statements generated during the model's reasoning process. Furthermore, it includes questions generated using simulation software, enabling dynamic adjustment of benchmark difficulty with minimal resource consumption. We have gathered over 1,300 test questions and iteratively adjusted the difficulty of MorphoBench based on the reasoning capabilities of models such as o3 and GPT-5. MorphoBench enhances the comprehensiveness and validity of model reasoning evaluation, providing reliable guidance for improving both the reasoning abilities and scientific robustness of large models. The code has been released in https://github.com/OpenDCAI/MorphoBench.
PDF193October 20, 2025