Auto-evoluzione Controllata per l'Ottimizzazione Algoritmica del Codice
Controlled Self-Evolution for Algorithmic Code Optimization
January 12, 2026
Autori: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI
Abstract
I metodi di auto-evoluzione migliorano la generazione di codice attraverso cicli iterativi di "generazione-verifica-affinamento", tuttavia gli approcci esistenti soffrono di una bassa efficienza esplorativa, non riuscendo a scoprire soluzioni con complessità superiore entro budget limitati. Questa inefficienza deriva da un bias di inizializzazione che intrappola l'evoluzione in regioni di soluzioni scadenti, da operazioni stocastiche non controllate che mancano di una guida basata sul feedback, e da un utilizzo insufficiente dell'esperienza attraverso i diversi task. Per affrontare questi colli di bottiglia, proponiamo l'Auto-Evoluzione Controllata (CSE), che consiste in tre componenti chiave. L'Inizializzazione con Pianificazione Diversificata genera strategie algoritmiche strutturalmente distinte per una copertura ampia dello spazio delle soluzioni. L'Evoluzione Genetica sostituisce le operazioni stocastiche con meccanismi guidati dal feedback, abilitando mutazioni mirate e crossover composizionale. La Memoria Evolutiva Gerarchica cattura sia le esperienze di successo che quelle fallimentari a livello inter-task e intra-task. Gli esperimenti su EffiBench-X dimostrano che CSE supera costantemente tutti i baseline su vari modelli linguistici di base. Inoltre, CSE raggiunge un'efficienza più elevata fin dalle prime generazioni e mantiene un miglioramento continuo durante l'intera evoluzione. Il nostro codice è pubblicamente disponibile all'indirizzo https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.