ChatPaper.aiChatPaper

MorphoBench: Ein Benchmark mit Schwierigkeitsgrad, der sich an die Modelllogik anpasst

MorphoBench: A Benchmark with Difficulty Adaptive to Model Reasoning

October 16, 2025
papers.authors: Xukai Wang, Xuanbo Liu, Mingrui Chen, Haitian Zhong, Xuanlin Yang, Bohan Zeng, Jinbo Hu, Hao Liang, Junbo Niu, Xuchen Li, Ruitao Wu, Ruichuan An, Yang Shi, Liu Liu, Xu-Yao Zhang, Qiang Liu, Zhouchen Lin, Wentao Zhang, Bin Dong
cs.AI

papers.abstract

Mit der Weiterentwicklung leistungsstarker großskaliger Reasoning-Modelle ist die effektive Bewertung der Reasoning-Fähigkeiten dieser Modelle zunehmend wichtig geworden. Bestehende Benchmarks, die zur Bewertung der Reasoning-Fähigkeiten großer Modelle entwickelt wurden, sind jedoch oft in ihrem Umfang begrenzt und bieten nicht die Flexibilität, ihre Schwierigkeit an die sich entwickelnden Reasoning-Kapazitäten der Modelle anzupassen. Um dies zu adressieren, schlagen wir MorphoBench vor, einen Benchmark, der multidisziplinäre Fragen integriert, um die Reasoning-Fähigkeiten großer Modelle zu bewerten und die Schwierigkeit der Fragen basierend auf den Reasoning-Fähigkeiten fortschrittlicher Modelle anpassen und aktualisieren kann. Konkret kuratieren wir den Benchmark, indem wir komplexe Reasoning-Fragen aus bestehenden Benchmarks und Quellen wie Olympiade-Wettbewerben auswählen und sammeln. Zudem passt MorphoBench die analytische Herausforderung der Fragen adaptiv an, indem es Schlüsselaussagen nutzt, die während des Reasoning-Prozesses des Modells generiert werden. Darüber hinaus enthält es Fragen, die mit Simulationssoftware generiert wurden, was eine dynamische Anpassung der Benchmark-Schwierigkeit mit minimalem Ressourcenverbrauch ermöglicht. Wir haben über 1.300 Testfragen gesammelt und die Schwierigkeit von MorphoBench iterativ basierend auf den Reasoning-Fähigkeiten von Modellen wie o3 und GPT-5 angepasst. MorphoBench verbessert die Umfassendheit und Validität der Bewertung von Modell-Reasoning und bietet zuverlässige Anleitung zur Verbesserung sowohl der Reasoning-Fähigkeiten als auch der wissenschaftlichen Robustheit großer Modelle. Der Code wurde unter https://github.com/OpenDCAI/MorphoBench veröffentlicht.
English
With the advancement of powerful large-scale reasoning models, effectively evaluating the reasoning capabilities of these models has become increasingly important. However, existing benchmarks designed to assess the reasoning abilities of large models tend to be limited in scope and lack the flexibility to adapt their difficulty according to the evolving reasoning capacities of the models. To address this, we propose MorphoBench, a benchmark that incorporates multidisciplinary questions to evaluate the reasoning capabilities of large models and can adjust and update question difficulty based on the reasoning abilities of advanced models. Specifically, we curate the benchmark by selecting and collecting complex reasoning questions from existing benchmarks and sources such as Olympiad-level competitions. Additionally, MorphoBench adaptively modifies the analytical challenge of questions by leveraging key statements generated during the model's reasoning process. Furthermore, it includes questions generated using simulation software, enabling dynamic adjustment of benchmark difficulty with minimal resource consumption. We have gathered over 1,300 test questions and iteratively adjusted the difficulty of MorphoBench based on the reasoning capabilities of models such as o3 and GPT-5. MorphoBench enhances the comprehensiveness and validity of model reasoning evaluation, providing reliable guidance for improving both the reasoning abilities and scientific robustness of large models. The code has been released in https://github.com/OpenDCAI/MorphoBench.
PDF193October 20, 2025