ChatPaper.aiChatPaper

Hard2Verify: Ein schrittweiser Verifikationsbenchmark für offene Grenzbereiche der Mathematik

Hard2Verify: A Step-Level Verification Benchmark for Open-Ended Frontier Math

October 15, 2025
papers.authors: Shrey Pandit, Austin Xu, Xuan-Phi Nguyen, Yifei Ming, Caiming Xiong, Shafiq Joty
cs.AI

papers.abstract

Große Sprachmodelle (LLM)-basierte Reasoning-Systeme haben kürzlich Goldmedaillen-Niveau im IMO 2025-Wettbewerb erreicht, indem sie mathematische Beweise verfasst haben, bei denen jeder Schritt nicht nur korrekt, sondern auch ausreichend begründet sein muss, um volle Punktzahl zu erhalten. Um LLM-basierte Reasoning-Systeme in solch anspruchsvollen, offenen Umgebungen zu trainieren, sind starke Verifizierer, die in der Lage sind, Fehler auf Schritt-Ebene zu erkennen, eine notwendige Voraussetzung. Wir stellen Hard2Verify vor, einen von Menschen annotierten Benchmark zur Schritt-Ebenen-Verifikation, der mit über 500 Stunden menschlicher Arbeit erstellt wurde. Hard2Verify wurde entwickelt, um Schritt-Ebenen-Verifizierer an der Grenze des Möglichen rigoros zu bewerten: Verifizierer müssen Schritt-für-Schritt-Annotationen bereitstellen oder den ersten Fehler in Antworten identifizieren, die von führenden LLMs für sehr aktuelle, anspruchsvolle und offene mathematische Fragen generiert wurden. Wir evaluieren 29 generative Kritiker und Prozess-Belohnungsmodelle und zeigen, dass Open-Source-Verifizierer, mit wenigen Ausnahmen, hinter Closed-Source-Modellen zurückbleiben. Anschließend analysieren wir, was die schlechte Leistung bei der Schritt-Ebenen-Verifikation verursacht, die Auswirkungen der Skalierung der Rechenleistung von Verifizierern sowie grundlegende Fragen wie Selbstverifikation und die Dynamik zwischen Verifikation und Generierung.
English
Large language model (LLM)-based reasoning systems have recently achieved gold medal-level performance in the IMO 2025 competition, writing mathematical proofs where, to receive full credit, each step must be not only correct but also sufficiently supported. To train LLM-based reasoners in such challenging, open-ended settings, strong verifiers capable of catching step-level mistakes are necessary prerequisites. We introduce Hard2Verify, a human-annotated, step-level verification benchmark produced with over 500 hours of human labor. Hard2Verify is designed to rigorously assess step-level verifiers at the frontier: Verifiers must provide step-level annotations or identify the first error in responses generated by frontier LLMs for very recent, challenging, and open-ended math questions. We evaluate 29 generative critics and process reward models, demonstrating that, beyond a few standouts, open-source verifiers lag closed source models. We subsequently analyze what drives poor performance in step-level verification, the impacts of scaling verifier compute, as well as fundamental questions such as self-verification and verification-generation dynamics.
PDF42October 16, 2025