ChatPaper.aiChatPaper

FrontierCS: Sich wandelnde Herausforderungen für sich entwickelnde Intelligenz

FrontierCS: Evolving Challenges for Evolving Intelligence

December 17, 2025
papers.authors: Qiuyang Mang, Wenhao Chai, Zhifei Li, Huanzhi Mao, Shang Zhou, Alexander Du, Hanchen Li, Shu Liu, Edwin Chen, Yichuan Wang, Xieting Chu, Zerui Cheng, Yuan Xu, Tian Xia, Zirui Wang, Tianneng Shi, Jianzhu Yao, Yilong Zhao, Qizheng Zhang, Charlie Ruan, Zeyu Shen, Kaiyuan Liu, Runyuan He, Dong Xing, Zerui Li, Zirong Zeng, Yige Jiang, Lufeng Cheng, Ziyi Zhao, Youran Sun, Wesley Zheng, Meiyuwang Zhang, Ruyi Ji, Xuechang Tu, Zihan Zheng, Zexing Chen, Kangyang Zhou, Zhaozi Wang, Jingbang Chen, Aleksandra Korolova, Peter Henderson, Pramod Viswanath, Vijay Ganesh, Saining Xie, Zhuang Liu, Dawn Song, Sewon Min, Ion Stoica, Joseph E. Gonzalez, Jingbo Shang, Alvin Cheung
cs.AI

papers.abstract

Wir stellen FrontierCS vor, einen Benchmark mit 156 offenen Problemen aus verschiedenen Bereichen der Informatik, der von Experten – einschließlich CS-Promovierten, Top-Teilnehmern im kompetitiven Programmieren und Aufgabenstellern – entworfen und begutachtet wurde. Im Gegensatz zu bestehenden Benchmarks, die sich auf Aufgaben mit bekannten optimalen Lösungen konzentrieren, zielt FrontierCS auf Probleme ab, bei denen die optimale Lösung unbekannt ist, die Qualität einer Lösung jedoch objektiv bewertet werden kann. Modelle lösen diese Aufgaben durch die Implementierung ausführbarer Programme anstatt durch die direkte Ausgabe einer Antwort. FrontierCS umfasst algorithmische Probleme, bei denen es sich oft um NP-schwere Varianten von Wettbewerbsprogrammieraufgaben mit objektiver Teilpunktvergabe handelt, sowie Forschungsprobleme mit derselben Eigenschaft. Für jedes Problem stellen wir eine Experten-Referenzlösung und einen automatischen Evaluator bereit. Durch die Kombination von offenem Design, messbarem Fortschritt und Expertenkuratierung bietet FrontierCS einen Benchmark an der Grenze des informatisch Machbaren. Empirisch stellen wir fest, dass fortschrittliche Reasoning-Modelle auf beiden Spuren – algorithmisch und forschungsbasiert – noch deutlich hinter menschlichen Experten zurückbleiben, dass eine Erhöhung des Reasoning-Budgets allein diese Lücke nicht schließt, und dass Modelle häufig darauf optimieren, lediglich funktionierenden Code zu generieren, anstatt hochwertige Algorithmen und Systemdesigns zu entdecken.
English
We introduce FrontierCS, a benchmark of 156 open-ended problems across diverse areas of computer science, designed and reviewed by experts, including CS PhDs and top-tier competitive programming participants and problem setters. Unlike existing benchmarks that focus on tasks with known optimal solutions, FrontierCS targets problems where the optimal solution is unknown, but the quality of a solution can be objectively evaluated. Models solve these tasks by implementing executable programs rather than outputting a direct answer. FrontierCS includes algorithmic problems, which are often NP-hard variants of competitive programming problems with objective partial scoring, and research problems with the same property. For each problem we provide an expert reference solution and an automatic evaluator. Combining open-ended design, measurable progress, and expert curation, FrontierCS provides a benchmark at the frontier of computer-science difficulty. Empirically, we find that frontier reasoning models still lag far behind human experts on both the algorithmic and research tracks, that increasing reasoning budgets alone does not close this gap, and that models often over-optimize for generating merely workable code instead of discovering high-quality algorithms and system designs.
PDF51December 19, 2025