Code2Math: Kan uw code-agent effectief wiskundige problemen ontwikkelen door middel van exploratie?
Code2Math: Can Your Code Agent Effectively Evolve Math Problems Through Exploration?
March 3, 2026
Auteurs: Dadi Guo, Yuejin Xie, Qingyu Liu, Jiayu Liu, Zhiyuan Fan, Qihan Ren, Shuai Shao, Tianyi Zhou, Dongrui Liu, Yi R. Fung
cs.AI
Samenvatting
Naarmate grote taalmodellen (LLM's) hun wiskundige capaciteiten ontwikkelen naar het niveau van de Internationale Wiskunde Olympiade (IMO), is de schaarste aan uitdagende, hoogwaardige problemen voor training en evaluatie een belangrijk knelpunt geworden. Tegelijkertijd hebben recente code-agents geavanceerde vaardigheden getoond in autonoom programmeren en redeneren, wat suggereert dat code-uitvoering kan dienen als een schaalbare omgeving voor wiskundige experimenten. In dit artikel onderzoeken we het potentieel van code-agents om bestaande wiskundeproblemen autonoom te laten evolueren naar complexere varianten. We introduceren een multi-agent raamwerk ontworpen om probleemevolutie uit te voeren, waarbij de oplosbaarheid en toegenomen moeilijkheidsgraad van de gegenereerde problemen wordt gevalideerd. Onze experimenten tonen aan dat code-agents, bij voldoende exploratie tijdens testtijd, nieuwe, oplosbare problemen kunnen synthetiseren die structureel verschillend en uitdagender zijn dan de originele problemen. Dit werk levert empirisch bewijs dat code-gedreven agents kunnen dienen als een levensvatbaar mechanisme voor het synthetiseren van wiskundige redeneerproblemen met een hoge moeilijkheidsgraad binnen schaalbare computationele omgevingen. Onze data is beschikbaar op https://github.com/TarferSoul/Code2Math.
English
As large language models (LLMs) advance their mathematical capabilities toward the IMO level, the scarcity of challenging, high-quality problems for training and evaluation has become a significant bottleneck. Simultaneously, recent code agents have demonstrated sophisticated skills in agentic coding and reasoning, suggesting that code execution can serve as a scalable environment for mathematical experimentation. In this paper, we investigate the potential of code agents to autonomously evolve existing math problems into more complex variations. We introduce a multi-agent framework designed to perform problem evolution while validating the solvability and increased difficulty of the generated problems. Our experiments demonstrate that, given sufficient test-time exploration, code agents can synthesize new, solvable problems that are structurally distinct from and more challenging than the originals. This work provides empirical evidence that code-driven agents can serve as a viable mechanism for synthesizing high-difficulty mathematical reasoning problems within scalable computational environments. Our data is available at https://github.com/TarferSoul/Code2Math.