Alcançando um Agente de Modelo de Linguagem Grande em Geometria de Nível Olímpico via Aprendizado por Reforço de Aumento de Complexidade
Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning
December 11, 2025
Autores: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI
Resumo
Os agentes de modelos de linguagem de grande escala (LLM) exibem fortes capacidades de resolução de problemas matemáticos e podem até resolver problemas de nível da Olimpíada Internacional de Matemática (IMO) com a assistência de sistemas de prova formal. No entanto, devido a heurísticas fracas para construções auxiliares, a IA para resolução de problemas de geometria continua a ser dominada por modelos especializados, como o AlphaGeometry 2, que dependem fortemente de síntese de dados em larga escala e busca para treinamento e avaliação. Neste trabalho, fazemos a primeira tentativa de construir um agente LLM de nível medalhista para geometria e apresentamos o InternGeometry. O InternGeometry supera as limitações heurísticas em geometria propondo iterativamente proposições e construções auxiliares, verificando-as com um motor simbólico e refletindo sobre o *feedback* do motor para orientar propostas subsequentes. Um mecanismo de memória dinâmica permite que o InternGeometry realize mais de duzentas interações com o motor simbólico por problema. Para acelerar ainda mais a aprendizagem, introduzimos o Reforço de Aprendizagem com Aumento de Complexidade (CBRL), que aumenta gradualmente a complexidade dos problemas sintetizados ao longo das fases de treinamento. Construído sobre o InternThinker-32B, o InternGeometry resolve 44 dos 50 problemas de geometria da IMO (2000-2024), excedendo a pontuação média do medalhista de ouro (40,9), usando apenas 13 mil exemplos de treinamento, apenas 0,004% dos dados usados pelo AlphaGeometry 2, demonstrando o potencial dos agentes LLM em tarefas de geometria de nível especialista. O InternGeometry também pode propor novas construções auxiliares para problemas da IMO que não aparecem nas soluções humanas. Disponibilizaremos o modelo, os dados e o motor simbólico para apoiar pesquisas futuras.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.