ChatPaper.aiChatPaper

MorphoBench: Un Benchmark con Difficoltà Adattabile al Ragionamento del Modello

MorphoBench: A Benchmark with Difficulty Adaptive to Model Reasoning

October 16, 2025
Autori: Xukai Wang, Xuanbo Liu, Mingrui Chen, Haitian Zhong, Xuanlin Yang, Bohan Zeng, Jinbo Hu, Hao Liang, Junbo Niu, Xuchen Li, Ruitao Wu, Ruichuan An, Yang Shi, Liu Liu, Xu-Yao Zhang, Qiang Liu, Zhouchen Lin, Wentao Zhang, Bin Dong
cs.AI

Abstract

Con il progresso dei potenti modelli di ragionamento su larga scala, valutare efficacemente le capacità di ragionamento di questi modelli è diventato sempre più importante. Tuttavia, i benchmark esistenti progettati per valutare le abilità di ragionamento dei modelli di grandi dimensioni tendono ad essere limitati nell'ambito e mancano della flessibilità necessaria per adattare la loro difficoltà in base alle capacità di ragionamento in evoluzione dei modelli. Per affrontare questo problema, proponiamo MorphoBench, un benchmark che incorpora domande multidisciplinari per valutare le capacità di ragionamento dei modelli di grandi dimensioni e può adattare e aggiornare la difficoltà delle domande in base alle capacità di ragionamento dei modelli avanzati. Nello specifico, abbiamo curato il benchmark selezionando e raccogliendo domande complesse di ragionamento da benchmark esistenti e fonti come competizioni di livello olimpico. Inoltre, MorphoBench modifica in modo adattivo la sfida analitica delle domande sfruttando affermazioni chiave generate durante il processo di ragionamento del modello. Inoltre, include domande generate utilizzando software di simulazione, consentendo un aggiustamento dinamico della difficoltà del benchmark con un consumo minimo di risorse. Abbiamo raccolto oltre 1.300 domande di test e abbiamo iterativamente adattato la difficoltà di MorphoBench in base alle capacità di ragionamento di modelli come o3 e GPT-5. MorphoBench migliora la completezza e la validità della valutazione del ragionamento dei modelli, fornendo una guida affidabile per migliorare sia le capacità di ragionamento che la robustezza scientifica dei modelli di grandi dimensioni. Il codice è stato rilasciato su https://github.com/OpenDCAI/MorphoBench.
English
With the advancement of powerful large-scale reasoning models, effectively evaluating the reasoning capabilities of these models has become increasingly important. However, existing benchmarks designed to assess the reasoning abilities of large models tend to be limited in scope and lack the flexibility to adapt their difficulty according to the evolving reasoning capacities of the models. To address this, we propose MorphoBench, a benchmark that incorporates multidisciplinary questions to evaluate the reasoning capabilities of large models and can adjust and update question difficulty based on the reasoning abilities of advanced models. Specifically, we curate the benchmark by selecting and collecting complex reasoning questions from existing benchmarks and sources such as Olympiad-level competitions. Additionally, MorphoBench adaptively modifies the analytical challenge of questions by leveraging key statements generated during the model's reasoning process. Furthermore, it includes questions generated using simulation software, enabling dynamic adjustment of benchmark difficulty with minimal resource consumption. We have gathered over 1,300 test questions and iteratively adjusted the difficulty of MorphoBench based on the reasoning capabilities of models such as o3 and GPT-5. MorphoBench enhances the comprehensiveness and validity of model reasoning evaluation, providing reliable guidance for improving both the reasoning abilities and scientific robustness of large models. The code has been released in https://github.com/OpenDCAI/MorphoBench.
PDF193October 20, 2025