ChatPaper.aiChatPaper

CMPhysBench: Ein Benchmark zur Bewertung großer Sprachmodelle in der Festkörperphysik

CMPhysBench: A Benchmark for Evaluating Large Language Models in Condensed Matter Physics

August 25, 2025
papers.authors: Weida Wang, Dongchen Huang, Jiatong Li, Tengchao Yang, Ziyang Zheng, Di Zhang, Dong Han, Benteng Chen, Binzhao Luo, Zhiyu Liu, Kunling Liu, Zhiyuan Gao, Shiqi Geng, Wei Ma, Jiaming Su, Xin Li, Shuchen Pu, Yuhan Shui, Qianjia Cheng, Zhihao Dou, Dongfei Cui, Changyong He, Jin Zeng, Zeke Xie, Mao Su, Dongzhan Zhou, Yuqiang Li, Wanli Ouyang, Yunqi Cai, Xi Dai, Shufei Zhang, Lei Bai, Jinguang Cheng, Zhong Fang, Hongming Weng
cs.AI

papers.abstract

Wir stellen CMPhysBench vor, einen neuartigen Benchmark, der die Fähigkeiten von Large Language Models (LLMs) in der Festkörperphysik bewertet. CMPhysBench besteht aus mehr als 520 sorgfältig kuratierten Fragen auf Graduiertenebene, die sowohl repräsentative Teilgebiete als auch grundlegende theoretische Rahmen der Festkörperphysik abdecken, wie Magnetismus, Supraleitung, stark korrelierte Systeme usw. Um ein tiefes Verständnis des Problemlösungsprozesses zu gewährleisten, konzentrieren wir uns ausschließlich auf Rechenaufgaben, die von den LLMs verlangen, eigenständig umfassende Lösungen zu generieren. Gleichzeitig führen wir, basierend auf baumbasierten Darstellungen von Ausdrücken, den Scalable Expression Edit Distance (SEED)-Score ein, der fein abgestufte (nicht-binäre) Teilpunkte bietet und eine genauere Bewertung der Ähnlichkeit zwischen Vorhersage und Grundwahrheit ermöglicht. Unsere Ergebnisse zeigen, dass selbst die besten Modelle, wie Grok-4, nur einen durchschnittlichen SEED-Score von 36 und eine Genauigkeit von 28 % auf CMPhysBench erreichen, was eine erhebliche Fähigkeitslücke, insbesondere in diesem praktischen und fortschrittlichen Bereich im Vergleich zur traditionellen Physik, verdeutlicht. Der Code und der Datensatz sind öffentlich unter https://github.com/CMPhysBench/CMPhysBench verfügbar.
English
We introduce CMPhysBench, designed to assess the proficiency of Large Language Models (LLMs) in Condensed Matter Physics, as a novel Benchmark. CMPhysBench is composed of more than 520 graduate-level meticulously curated questions covering both representative subfields and foundational theoretical frameworks of condensed matter physics, such as magnetism, superconductivity, strongly correlated systems, etc. To ensure a deep understanding of the problem-solving process,we focus exclusively on calculation problems, requiring LLMs to independently generate comprehensive solutions. Meanwhile, leveraging tree-based representations of expressions, we introduce the Scalable Expression Edit Distance (SEED) score, which provides fine-grained (non-binary) partial credit and yields a more accurate assessment of similarity between prediction and ground-truth. Our results show that even the best models, Grok-4, reach only 36 average SEED score and 28% accuracy on CMPhysBench, underscoring a significant capability gap, especially for this practical and frontier domain relative to traditional physics. The code anddataset are publicly available at https://github.com/CMPhysBench/CMPhysBench.
PDF361August 27, 2025