Erreichen eines Olympia-fähigen Geometrie-Großsprachmodell-Agenten durch Komplexitätssteigerndes Bestärkendes Lernen
Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning
December 11, 2025
papers.authors: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI
papers.abstract
Große Sprachmodell-Agenten (LLM) zeigen starke mathematische Problemlösungsfähigkeiten und können sogar Probleme auf dem Niveau der Internationalen Mathematik-Olympiade (IMO) lösen, wenn sie durch formale Beweissysteme unterstützt werden. Aufgrund schwacher Heuristiken für Hilfskonstruktionen wird die KI zur Lösung geometrischer Probleme jedoch nach wie vor von Expertenmodellen wie AlphaGeometry 2 dominiert, die für Training und Evaluation stark auf groß angelegte Datensynthese und Suche angewiesen sind. In dieser Arbeit unternehmen wir einen ersten Versuch, einen LLM-Agenten auf Medaillengewinner-Niveau für Geometrie zu entwickeln, und präsentieren InternGeometry. InternGeometry überwindet die heuristischen Grenzen in der Geometrie, indem es iterativ Sätze und Hilfskonstruktionen vorschlägt, diese mit einer symbolischen Engine verifiziert und anhand des Feedbacks der Engine nachfolgende Vorschläge reflektiert. Ein dynamischer Speichermechanismus ermöglicht es InternGeometry, über zweihundert Interaktionen mit der symbolischen Engine pro Problem durchzuführen. Um das Lernen weiter zu beschleunigen, führen wir Complexity-Boosting Reinforcement Learning (CBRL) ein, das die Komplexität synthetisierter Probleme über die Trainingsphasen hinweg schrittweise erhöht. Aufbauend auf InternThinker-32B löst InternGeometry 44 von 50 IMO-Geometrieproblemen (2000–2024) und übertrifft damit die durchschnittliche Punktzahl von Goldmedaillengewinnern (40,9) – und das mit nur 13.000 Trainingsbeispielen, was lediglich 0,004 % der von AlphaGeometry 2 verwendeten Daten entspricht. Dies demonstriert das Potenzial von LLM-Agenten für expertenlevelgeometrische Aufgaben. InternGeometry kann auch neuartige Hilfskonstruktionen für IMO-Probleme vorschlagen, die in menschlichen Lösungen nicht vorkommen. Wir werden das Modell, die Daten und die symbolische Engine veröffentlichen, um zukünftige Forschung zu unterstützen.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.