Atteindre un Agent de Modèle de Langage de Grande Taille de Niveau Olympiade en Géométrie via un Apprentissage par Renforcement par Augmentation de la Complexité
Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning
December 11, 2025
papers.authors: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI
papers.abstract
Les agents de grands modèles de langage (LLM) démontrent de solides capacités en résolution de problèmes mathématiques et peuvent même résoudre des problèmes de niveau Olympiade Internationale de Mathématiques (OIM) avec l'assistance de systèmes de preuve formelle. Cependant, en raison de heuristiques faibles pour les constructions auxiliaires, l'IA pour la résolution de problèmes de géométrie reste dominée par des modèles experts comme AlphaGeometry 2, qui s'appuient fortement sur la synthèse de données à grande échelle et la recherche pour l'entraînement et l'évaluation. Dans ce travail, nous faisons la première tentative de construction d'un agent LLM de niveau médaillé pour la géométrie et présentons InternGeometry. InternGeometry surmonte les limitations heuristiques en géométrie en proposant itérativement des propositions et des constructions auxiliaires, en les vérifiant avec un moteur symbolique, et en réfléchissant aux retours du moteur pour guider les propositions suivantes. Un mécanisme de mémoire dynamique permet à InternGeometry de mener plus de deux cents interactions avec le moteur symbolique par problème. Pour accélérer davantage l'apprentissage, nous introduisons l'Apprentissage par Renforcement à Augmentation Progressive de la Complexité (CBRL), qui augmente graduellement la complexité des problèmes synthétisés au cours des étapes d'entraînement. Construit sur InternThinker-32B, InternGeometry résout 44 des 50 problèmes de géométrie des OIM (2000-2024), dépassant le score moyen des médaillés d'or (40,9), en utilisant seulement 13 000 exemples d'entraînement, soit juste 0,004 % des données utilisées par AlphaGeometry 2, démontrant le potentiel des agents LLM sur des tâches de géométrie de niveau expert. InternGeometry peut également proposer de nouvelles constructions auxiliaires pour des problèmes des OIM qui n'apparaissent pas dans les solutions humaines. Nous publierons le modèle, les données et le moteur symbolique pour soutenir les recherches futures.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.