Het Bereiken van een Olympia-Niveau Geometrie Large Language Model Agent via Reinforcement Learning met Complexiteitsverhoging
Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning
December 11, 2025
Auteurs: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI
Samenvatting
Grootschalige taalmodel (LLM) agenten vertonen sterke wiskundige probleemoplossende vermogens en kunnen zelfs problemen op het niveau van de Internationale Wiskunde Olympiade (IMO) oplossen met behulp van formele bewijssystemen. Echter, vanwege zwakke heuristieken voor hulpconstructies, wordt AI voor het oplossen van meetkundeproblemen nog steeds gedomineerd door expertmodellen zoals AlphaGeometry 2, die zwaar leunen op grootschalige datasynthese en zoekacties voor zowel training als evaluatie. In dit werk doen we een eerste poging om een LLM-agent op medaillewinnaarsniveau voor meetkunde te bouwen en presenteren InternGeometry. InternGeometry overwint de heuristische beperkingen in de meetkunde door iteratief proposities en hulpconstructies voor te stellen, deze te verifiëren met een symbolische engine, en te reflecteren op de feedback van de engine om volgende voorstellen te sturen. Een dynamisch geheugenmechanisme stelt InternGeometry in staat om meer dan tweehonderd interacties per probleem met de symbolische engine uit te voeren. Om het leren verder te versnellen, introduceren we Complexity-Boosting Reinforcement Learning (CBRL), dat geleidelijk de complexiteit van gesynthetiseerde problemen over trainingsfasen verhoogt. Gebouwd op InternThinker-32B, lost InternGeometry 44 van de 50 IMO-meetkundeproblemen (2000-2024) op, wat de gemiddelde score van een goudenmedaillewinnaar (40.9) overstijgt, met slechts 13K trainingsvoorbeelden, slechts 0.004% van de data gebruikt door AlphaGeometry 2. Dit demonstreert het potentieel van LLM-agenten voor expert-level meetkundetaken. InternGeometry kan ook nieuwe hulpconstructies voorstellen voor IMO-problemen die niet voorkomen in menselijke oplossingen. We zullen het model, de data en de symbolische engine vrijgeven om toekomstig onderzoek te ondersteunen.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.