MorphoBench: Un Benchmark con Difficoltà Adattabile al Ragionamento del Modello
MorphoBench: A Benchmark with Difficulty Adaptive to Model Reasoning
October 16, 2025
Autori: Xukai Wang, Xuanbo Liu, Mingrui Chen, Haitian Zhong, Xuanlin Yang, Bohan Zeng, Jinbo Hu, Hao Liang, Junbo Niu, Xuchen Li, Ruitao Wu, Ruichuan An, Yang Shi, Liu Liu, Xu-Yao Zhang, Qiang Liu, Zhouchen Lin, Wentao Zhang, Bin Dong
cs.AI
Abstract
Con il progresso dei potenti modelli di ragionamento su larga scala, valutare efficacemente le capacità di ragionamento di questi modelli è diventato sempre più importante. Tuttavia, i benchmark esistenti progettati per valutare le abilità di ragionamento dei modelli di grandi dimensioni tendono ad essere limitati nell'ambito e mancano della flessibilità necessaria per adattare la loro difficoltà in base alle capacità di ragionamento in evoluzione dei modelli. Per affrontare questo problema, proponiamo MorphoBench, un benchmark che incorpora domande multidisciplinari per valutare le capacità di ragionamento dei modelli di grandi dimensioni e può adattare e aggiornare la difficoltà delle domande in base alle capacità di ragionamento dei modelli avanzati. Nello specifico, abbiamo curato il benchmark selezionando e raccogliendo domande complesse di ragionamento da benchmark esistenti e fonti come competizioni di livello olimpico. Inoltre, MorphoBench modifica in modo adattivo la sfida analitica delle domande sfruttando affermazioni chiave generate durante il processo di ragionamento del modello. Inoltre, include domande generate utilizzando software di simulazione, consentendo un aggiustamento dinamico della difficoltà del benchmark con un consumo minimo di risorse. Abbiamo raccolto oltre 1.300 domande di test e abbiamo iterativamente adattato la difficoltà di MorphoBench in base alle capacità di ragionamento di modelli come o3 e GPT-5. MorphoBench migliora la completezza e la validità della valutazione del ragionamento dei modelli, fornendo una guida affidabile per migliorare sia le capacità di ragionamento che la robustezza scientifica dei modelli di grandi dimensioni. Il codice è stato rilasciato su https://github.com/OpenDCAI/MorphoBench.
English
With the advancement of powerful large-scale reasoning models, effectively
evaluating the reasoning capabilities of these models has become increasingly
important. However, existing benchmarks designed to assess the reasoning
abilities of large models tend to be limited in scope and lack the flexibility
to adapt their difficulty according to the evolving reasoning capacities of the
models. To address this, we propose MorphoBench, a benchmark that incorporates
multidisciplinary questions to evaluate the reasoning capabilities of large
models and can adjust and update question difficulty based on the reasoning
abilities of advanced models. Specifically, we curate the benchmark by
selecting and collecting complex reasoning questions from existing benchmarks
and sources such as Olympiad-level competitions. Additionally, MorphoBench
adaptively modifies the analytical challenge of questions by leveraging key
statements generated during the model's reasoning process. Furthermore, it
includes questions generated using simulation software, enabling dynamic
adjustment of benchmark difficulty with minimal resource consumption. We have
gathered over 1,300 test questions and iteratively adjusted the difficulty of
MorphoBench based on the reasoning capabilities of models such as o3 and GPT-5.
MorphoBench enhances the comprehensiveness and validity of model reasoning
evaluation, providing reliable guidance for improving both the reasoning
abilities and scientific robustness of large models. The code has been released
in https://github.com/OpenDCAI/MorphoBench.