ChatPaper.aiChatPaper

Raggiungere un Agente di Modelli Linguistici di Grande Dimensione per la Geometria di Livello Olimpico tramite Apprendimento per Rinforzo con Incremento della Complessità

Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning

December 11, 2025
Autori: Haiteng Zhao, Junhao Shen, Yiming Zhang, Songyang Gao, Kuikun Liu, Tianyou Ma, Fan Zheng, Dahua Lin, Wenwei Zhang, Kai Chen
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) come agenti dimostrano forti capacità di problem solving matematico e possono persino risolvere problemi di livello Olimpiade Internazionale della Matematica (IMO) con l'assistenza di sistemi di dimostrazione formale. Tuttavia, a causa di euristiche deboli per le costruzioni ausiliarie, l'IA per la risoluzione di problemi di geometria rimane dominata da modelli esperti come AlphaGeometry 2, che fanno ampio affidamento sulla sintesi di dati su larga scala e sulla ricerca sia per l'addestramento che per la valutazione. In questo lavoro, facciamo il primo tentativo di costruire un agente LLM di livello medaglia per la geometria e presentiamo InternGeometry. InternGeometry supera le limitazioni euristiche in geometria proponendo iterativamente proposizioni e costruzioni ausiliarie, verificandole con un motore simbolico e riflettendo sul feedback del motore per guidare le proposte successive. Un meccanismo di memoria dinamica consente a InternGeometry di condurre oltre duecento interazioni con il motore simbolico per problema. Per accelerare ulteriormente l'apprendimento, introduciamo il Reinforcement Learning a Complessità Crescente (CBRL), che aumenta gradualmente la complessità dei problemi sintetizzati attraverso le fasi di addestramento. Basato su InternThinker-32B, InternGeometry risolve 44 dei 50 problemi di geometria delle IMO (2000-2024), superando il punteggio medio del medalista d'oro (40.9), utilizzando solo 13K esempi di addestramento, appena lo 0.004% dei dati utilizzati da AlphaGeometry 2, dimostrando il potenziale degli agenti LLM su compiti di geometria di livello esperto. InternGeometry può anche proporre nuove costruzioni ausiliarie per problemi IMO che non compaiono nelle soluzioni umane. Rilasceremo il modello, i dati e il motore simbolico per supportare la ricerca futura.
English
Large language model (LLM) agents exhibit strong mathematical problem-solving abilities and can even solve International Mathematical Olympiad (IMO) level problems with the assistance of formal proof systems. However, due to weak heuristics for auxiliary constructions, AI for geometry problem solving remains dominated by expert models such as AlphaGeometry 2, which rely heavily on large-scale data synthesis and search for both training and evaluation. In this work, we make the first attempt to build a medalist-level LLM agent for geometry and present InternGeometry. InternGeometry overcomes the heuristic limitations in geometry by iteratively proposing propositions and auxiliary constructions, verifying them with a symbolic engine, and reflecting on the engine's feedback to guide subsequent proposals. A dynamic memory mechanism enables InternGeometry to conduct more than two hundred interactions with the symbolic engine per problem. To further accelerate learning, we introduce Complexity-Boosting Reinforcement Learning (CBRL), which gradually increases the complexity of synthesized problems across training stages. Built on InternThinker-32B, InternGeometry solves 44 of 50 IMO geometry problems (2000-2024), exceeding the average gold medalist score (40.9), using only 13K training examples, just 0.004% of the data used by AlphaGeometry 2, demonstrating the potential of LLM agents on expert-level geometry tasks. InternGeometry can also propose novel auxiliary constructions for IMO problems that do not appear in human solutions. We will release the model, data, and symbolic engine to support future research.
PDF251December 13, 2025