ChatPaper.aiChatPaper

AcademiClaw: Wenn Studierende Herausforderungen für KI-Agenten stellen

AcademiClaw: When Students Set Challenges for AI Agents

May 4, 2026
Autoren: Junjie Yu, Pengrui Lu, Weiye Si, Hongliang Lu, Jiabao Wu, Kaiwen Tao, Kun Wang, Lingyu Yang, Qiran Zhang, Xiuting Guo, Xuanyu Wang, Yang Wang, Yanjie Wang, Yi Yang, Zijian Hu, Ziyi Yang, Zonghan Zhou, Binghao Qiang, Borui Zhang, Chenning Li, Enchang Zhang, Feifan Chen, Feng Jian, Fengyin Sun, Hao Qiu, Hao Zheng, Haoran Zhu, Hongyu Liu, Jianbin Deng, Jiaxin Song, Jiaying Chi, Jiayou Shi, Jie Fang, Jinghui Zhong, Jingyu Zhou, Jinze Li, Junfeng Yi, Junyan Yu, Junzhi Xue, Ni Song, Pengyi Chen, Qi Chen, Quansheng Li, Rui Tao, Shenghai Gong, Shenhang Lu, Tianqi Shen, Tianxiang Zhu, Tiehan Kang, Tingyu Li, Wendi Wu, Xiao Shen, Xiao Zhou, Xiaotao Zhang, Xinrong Li, Xuankun Yang, Xun Zhang, Yan Li, Ye Lu, Yi Wang, Yibo Zhou, Yichi Zhang, Yihao Sun, Yijun Huang, Yixin Zhu, Yixuan Wu, Yuchen Sun, Yue Wu, Yuheng Sun, Yukun Li, Yutian Tu, Yuxuan Qin, Yuzhuo Wu, Zeyu Li, Zhengyu Lou, Zhenning Ran, Zizhu He, Pengfei Liu
cs.AI

Zusammenfassung

Bisherige Benchmarks innerhalb des OpenClaw-Ökosystems haben ausschließlich Assistenzaufgaben auf Assistenten-Niveau evaluiert und ließen die akademischen Fähigkeiten von OpenClaw weitgehend unberücksichtigt. Wir stellen AcademiClaw vor, einen zweisprachigen Benchmark mit 80 komplexen, langfristigen Aufgaben, die direkt aus den realen akademischen Arbeitsabläufen von Universitätsstudierenden stammen – Hausaufgaben, Forschungsprojekte, Wettbewerbe und persönliche Projekte –, die nach Angaben der Studierenden von aktuellen KI-Agenten nicht effektiv gelöst werden konnten. Die finale Aufgabensammlung, die aus 230 von Studierenden eingereichten Kandidaten durch eine rigorose Expertenprüfung kuratiert wurde, umfasst über 25 Fachgebiete, von olympiareifen Mathematik- und Linguistikproblemen bis hin zu GPU-intensivem Reinforcement Learning und Full-Stack-Systemdebugging, wobei 16 Aufgaben die Ausführung auf einer CUDA-GPU erfordern. Jede Aufgabe wird in einer isolierten Docker-Sandbox ausgeführt und anhand des Aufgabenerfolgs mittels multidimensionaler Bewertungsraster bewertet, die sechs komplementäre Techniken kombinieren; eine unabhängige Sicherheitsprüfung in fünf Kategorien liefert eine zusätzliche Verhaltensanalyse. Experimente mit sechs State-of-the-Art-Modellen zeigen, dass selbst das beste Modell nur eine Erfolgsquote von 55 % erreicht. Eine weitere Analyse deckt scharfe Kompetenzgrenzen zwischen Aufgabendomänen, divergierende Verhaltensstrategien der Modelle sowie eine Diskrepanz zwischen Token-Verbrauch und Ausgabequalität auf und liefert so feinkörnige diagnostische Signale, die über aggregierte Metriken hinausgehen. Wir hoffen, dass AcademiClaw samt der quelloffenen Daten und Codebasis der OpenClaw-Community als wertvolle Ressource dienen kann, um Fortschritte hin zu Agenten voranzutreiben, die über die gesamte Breite realer akademischer Anforderungen hinweg leistungsfähiger und vielseitiger sind. Alle Daten und Code sind verfügbar unter https://github.com/GAIR-NLP/AcademiClaw.
English
Benchmarks within the OpenClaw ecosystem have thus far evaluated exclusively assistant-level tasks, leaving the academic-level capabilities of OpenClaw largely unexamined. We introduce AcademiClaw, a bilingual benchmark of 80 complex, long-horizon tasks sourced directly from university students' real academic workflows -- homework, research projects, competitions, and personal projects -- that they found current AI agents unable to solve effectively. Curated from 230 student-submitted candidates through rigorous expert review, the final task set spans 25+ professional domains, ranging from olympiad-level mathematics and linguistics problems to GPU-intensive reinforcement learning and full-stack system debugging, with 16 tasks requiring CUDA GPU execution. Each task executes in an isolated Docker sandbox and is scored on task completion by multi-dimensional rubrics combining six complementary techniques, with an independent five-category safety audit providing additional behavioral analysis. Experiments on six frontier models show that even the best achieves only a 55\% pass rate. Further analysis uncovers sharp capability boundaries across task domains, divergent behavioral strategies among models, and a disconnect between token consumption and output quality, providing fine-grained diagnostic signals beyond what aggregate metrics reveal. We hope that AcademiClaw and its open-sourced data and code can serve as a useful resource for the OpenClaw community, driving progress toward agents that are more capable and versatile across the full breadth of real-world academic demands. All data and code are available at https://github.com/GAIR-NLP/AcademiClaw.
PDF81May 6, 2026