ChatPaper.aiChatPaper

Logrando un Agente de Modelo de Lenguaje Grande de Geometría a Nivel Olímpico mediante Aprendizaje por Refuerzo de Aumento de Complejidad

Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning

December 11, 2025
Autores: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI

Resumen

Los agentes de modelos de lenguaje grande (LLM) exhiben una gran capacidad para resolver problemas matemáticos e incluso pueden resolver problemas de nivel de la Olimpiada Internacional de Matemáticas (IMO) con la asistencia de sistemas de prueba formal. Sin embargo, debido a heurísticas débiles para construcciones auxiliares, la IA para la resolución de problemas de geometría sigue estando dominada por modelos expertos como AlphaGeometry 2, que dependen en gran medida de la síntesis de datos a gran escala y la búsqueda tanto para el entrenamiento como para la evaluación. En este trabajo, realizamos el primer intento de construir un agente LLM de nivel medallista para geometría y presentamos InternGeometry. InternGeometry supera las limitaciones heurísticas en geometría proponiendo iterativamente proposiciones y construcciones auxiliares, verificándolas con un motor simbólico y reflexionando sobre la retroalimentación del motor para guiar las propuestas subsiguientes. Un mecanismo de memoria dinámica permite a InternGeometry realizar más de doscientas interacciones con el motor simbólico por problema. Para acelerar aún más el aprendizaje, introducimos el Aprendizaje por Refuerzo de Complejidad Creciente (CBRL), que aumenta gradualmente la complejidad de los problemas sintetizados a lo largo de las etapas de entrenamiento. Construido sobre InternThinker-32B, InternGeometry resuelve 44 de 50 problemas de geometría de la IMO (2000-2024), superando la puntuación media del medallista de oro (40.9), utilizando solo 13,000 ejemplos de entrenamiento, apenas el 0.004% de los datos utilizados por AlphaGeometry 2, lo que demuestra el potencial de los agentes LLM en tareas de geometría de nivel experto. InternGeometry también puede proponer construcciones auxiliares novedosas para problemas de la IMO que no aparecen en las soluciones humanas. Liberaremos el modelo, los datos y el motor simbólico para apoyar la investigación futura.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.
PDF251December 13, 2025