Достижение уровня Олимпиады в агентах больших языковых моделей для геометрии посредством обучения с подкреплением с усилением сложности
Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning
December 11, 2025
Авторы: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI
Аннотация
Крупные языковые модели (LLM) демонстрируют высокие способности к решению математических задач и могут решать даже задачи уровня Международной математической олимпиады (ММО) с помощью систем формального доказательства. Однако из-за слабых эвристик для вспомогательных построений в области решения геометрических задач доминируют экспертные модели, такие как AlphaGeometry 2, которые в значительной степени полагаются на синтез данных в большом масштабе и поиск как для обучения, так и для оценки. В данной работе мы предпринимаем первую попытку создания LLM-агента уровня медалиста для геометрии и представляем InternGeometry. InternGeometry преодолевает эвристические ограничения в геометрии за счет итеративного предложения утверждений и вспомогательных построений, их проверки с помощью символьного движка и анализа обратной связи от движка для руководства последующими предложениями. Механизм динамической памяти позволяет InternGeometry проводить более двухсот взаимодействий с символьным движком на одну задачу. Для дальнейшего ускорения обучения мы представляем обучение с подкреплением с нарастающей сложностью (Complexity-Boosting Reinforcement Learning, CBRL), которое постепенно увеличивает сложность синтезированных задач на различных этапах обучения. Построенная на основе InternThinker-32B, модель InternGeometry решает 44 из 50 геометрических задач ММО (2000–2024), превосходя средний балл золотого медалиста (40.9), используя всего 13 тыс. обучающих примеров, что составляет лишь 0.004% от данных, использованных в AlphaGeometry 2, и демонстрирует потенциал LLM-агентов в решении экспертных геометрических задач. InternGeometry также способна предлагать новые вспомогательные построения для задач ММО, которые не встречаются в человеческих решениях. Мы опубликуем модель, данные и символьный движок для поддержки будущих исследований.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.