ChatPaper.aiChatPaper

Code2Math: Il tuo agente di codice può evolvere efficacemente problemi matematici attraverso l'esplorazione?

Code2Math: Can Your Code Agent Effectively Evolve Math Problems Through Exploration?

March 3, 2026
Autori: Dadi Guo, Yuejin Xie, Qingyu Liu, Jiayu Liu, Zhiyuan Fan, Qihan Ren, Shuai Shao, Tianyi Zhou, Dongrui Liu, Yi R. Fung
cs.AI

Abstract

Man mano che i grandi modelli linguistici (LLM) progrediscono nelle loro capacità matematiche verso il livello delle Olimpiadi Internazionali della Matematica (IMO), la scarsità di problemi complessi e di alta qualità per l'addestramento e la valutazione è diventata un collo di bottiglia significativo. Parallelamente, recenti agenti basati sul codice hanno dimostrato abilità sofisticate nel coding agentivo e nel ragionamento, suggerendo che l'esecuzione di codice possa fungere da ambiente scalabile per la sperimentazione matematica. In questo articolo, investigiamo il potenziale degli agenti basati sul codice di evolvere autonomamente problemi matematici esistenti in variazioni più complesse. Introduciamo un framework multi-agente progettato per eseguire l'evoluzione dei problemi, convalidando al contempo la risolvibilità e la maggiore difficoltà dei problemi generati. I nostri esperimenti dimostrano che, con un'esplorazione sufficiente durante il test, gli agenti basati sul codice sono in grado di sintetizzare nuovi problemi risolvibili, strutturalmente distinti e più impegnativi degli originali. Questo lavoro fornisce evidenze empiriche del fatto che gli agenti guidati dal codice possano servire come meccanismo valido per sintetizzare problemi di ragionamento matematico ad alta difficità all'interno di ambienti computazionali scalabili. I nostri dati sono disponibili su https://github.com/TarferSoul/Code2Math.
English
As large language models (LLMs) advance their mathematical capabilities toward the IMO level, the scarcity of challenging, high-quality problems for training and evaluation has become a significant bottleneck. Simultaneously, recent code agents have demonstrated sophisticated skills in agentic coding and reasoning, suggesting that code execution can serve as a scalable environment for mathematical experimentation. In this paper, we investigate the potential of code agents to autonomously evolve existing math problems into more complex variations. We introduce a multi-agent framework designed to perform problem evolution while validating the solvability and increased difficulty of the generated problems. Our experiments demonstrate that, given sufficient test-time exploration, code agents can synthesize new, solvable problems that are structurally distinct from and more challenging than the originals. This work provides empirical evidence that code-driven agents can serve as a viable mechanism for synthesizing high-difficulty mathematical reasoning problems within scalable computational environments. Our data is available at https://github.com/TarferSoul/Code2Math.
PDF142March 7, 2026