ChatPaper.aiChatPaper

Auto-Evolução Controlada para Otimização de Código Algorítmico

Controlled Self-Evolution for Algorithmic Code Optimization

January 12, 2026
Autores: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI

Resumo

Os métodos de auto-evolução aprimoram a geração de código através de ciclos iterativos de "gerar-verificar-refinar", contudo, as abordagens existentes sofrem com baixa eficiência de exploração, falhando em descobrir soluções com complexidade superior dentro de orçamentos limitados. Esta ineficiência decorre do viés de inicialização que prende a evolução em regiões de solução pobres, de operações estocásticas não controladas que carecem de orientação por feedback, e da utilização insuficiente de experiências entre tarefas. Para resolver estes estrangulamentos, propomos a Auto-Evolução Controlada (CSE), que consiste em três componentes-chave. A Inicialização por Planeamento Diversificado gera estratégias algorítmicas estruturalmente distintas para uma ampla cobertura do espaço de soluções. A Evolução Genética substitui operações estocásticas por mecanismos guiados por feedback, permitindo mutação direcionada e *crossover* composicional. A Memória de Evolução Hierárquica captura experiências bem-sucedidas e falhadas tanto a nível inter-tarefas como intra-tarefa. Experiências no EffiBench-X demonstram que a CSE supera consistentemente todas as linhas de base em vários modelos de LLM subjacentes. Adicionalmente, a CSE alcança maior eficiência desde as gerações iniciais e mantém uma melhoria contínua ao longo da evolução. O nosso código está publicamente disponível em https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.
PDF1154February 27, 2026