Het kritieke punt (CritPt) van AI-redenering onderzoeken: een baanbrekende fysica onderzoeksbenchmark
Probing the Critical Point (CritPt) of AI Reasoning: a Frontier Physics Research Benchmark
September 30, 2025
Auteurs: Minhui Zhu, Minyang Tian, Xiaocheng Yang, Tianci Zhou, Penghao Zhu, Eli Chertkov, Shengyan Liu, Yufeng Du, Lifan Yuan, Ziming Ji, Indranil Das, Junyi Cao, Yufeng Du, Jinchen He, Yifan Su, Jiabin Yu, Yikun Jiang, Yujie Zhang, Chang Liu, Ze-Min Huang, Weizhen Jia, Xinan Chen, Peixue Wu, Yunkai Wang, Juntai Zhou, Yong Zhao, Farshid Jafarpour, Jessie Shelton, Aaron Young, John Bartolotta, Wenchao Xu, Yue Sun, Anjun Chu, Victor Colussi, Chris Akers, Nathan Brooks, Wenbo Fu, Christopher Wilson, Jinchao Zhao, Marvin Qi, Anqi Mu, Yubo Yang, Allen Zang, Yang Lyu, Peizhi Mai, Xuefei Guo, Luyu Gao, Ze Yang, Chi Xue, Dmytro Bandak, Yaïr Hein, Yonatan Kahn, Kevin Zhou, John Drew Wilson Jarrod T. Reilly, Di Luo, Daniel Inafuku, Hao Tong, Liang Yang, Ruixing Zhang, Xueying Wang, Ofir Press, Nicolas Chia, Eliu Huerta, Hao Peng
cs.AI
Samenvatting
Hoewel grote taalmodellen (LLMs) met redeneervaardigheden snel vooruitgang boeken op het gebied van middelbare school wiskundewedstrijden en programmeren, kunnen ze effectief redeneren door complexe, open uitdagingen die worden aangetroffen in grensverleggend natuurkundig onderzoek? En cruciaal, met welke soorten redeneertaken willen natuurkundigen dat LLMs hen assisteren? Om deze vragen te beantwoorden, presenteren we de CritPt (Complex Research using Integrated Thinking - Physics Test, uitgesproken als "critical point"), de eerste benchmark ontworpen om LLMs te testen op ongepubliceerde, onderzoeksniveau redeneertaken die breed de moderne onderzoeksgebieden van de natuurkunde bestrijken, waaronder gecondenseerde materie, kwantumfysica, atomaire, moleculaire & optische fysica, astrofysica, hoge-energiefysica, mathematische fysica, statistische fysica, kernfysica, niet-lineaire dynamica, vloeistofdynamica en biofysica. CritPt bestaat uit 71 samengestelde onderzoeksuitdagingen ontworpen om volledige onderzoeksprojecten op instapniveau te simuleren, die ook zijn opgedeeld in 190 eenvoudigere checkpointtaken voor meer gedetailleerde inzichten. Alle problemen zijn nieuw gecreëerd door 50+ actieve natuurkundeonderzoekers op basis van hun eigen onderzoek. Elk probleem is handmatig samengesteld om een gokbestendig en machine-verifieerbaar antwoord toe te laten en wordt geëvalueerd door een geautomatiseerd beoordelingsproces dat sterk is aangepast voor geavanceerde, natuurkunde-specifieke uitvoerformaten. We constateren dat hoewel huidige state-of-the-art LLMs vroege belofte tonen op geïsoleerde checkpoints, ze nog ver verwijderd zijn van het betrouwbaar kunnen oplossen van volledige onderzoeksschaal uitdagingen: de beste gemiddelde nauwkeurigheid onder basismodellen is slechts 4,0%, behaald door GPT-5 (hoog), wat matig stijgt tot ongeveer 10% wanneer uitgerust met programmeertools. Door de realistische maar gestandaardiseerde evaluatie die CritPt biedt, benadrukken we een grote kloof tussen de huidige modelmogelijkheden en realistische natuurkundeonderzoeksbehoeften, en bieden we een basis om de ontwikkeling van wetenschappelijk onderbouwde AI-tools te begeleiden.
English
While large language models (LLMs) with reasoning capabilities are
progressing rapidly on high-school math competitions and coding, can they
reason effectively through complex, open-ended challenges found in frontier
physics research? And crucially, what kinds of reasoning tasks do physicists
want LLMs to assist with? To address these questions, we present the CritPt
(Complex Research using Integrated Thinking - Physics Test, pronounced
"critical point"), the first benchmark designed to test LLMs on unpublished,
research-level reasoning tasks that broadly covers modern physics research
areas, including condensed matter, quantum physics, atomic, molecular & optical
physics, astrophysics, high energy physics, mathematical physics, statistical
physics, nuclear physics, nonlinear dynamics, fluid dynamics and biophysics.
CritPt consists of 71 composite research challenges designed to simulate
full-scale research projects at the entry level, which are also decomposed to
190 simpler checkpoint tasks for more fine-grained insights. All problems are
newly created by 50+ active physics researchers based on their own research.
Every problem is hand-curated to admit a guess-resistant and machine-verifiable
answer and is evaluated by an automated grading pipeline heavily customized for
advanced physics-specific output formats. We find that while current
state-of-the-art LLMs show early promise on isolated checkpoints, they remain
far from being able to reliably solve full research-scale challenges: the best
average accuracy among base models is only 4.0% , achieved by GPT-5 (high),
moderately rising to around 10% when equipped with coding tools. Through the
realistic yet standardized evaluation offered by CritPt, we highlight a large
disconnect between current model capabilities and realistic physics research
demands, offering a foundation to guide the development of scientifically
grounded AI tools.