Auto-évolution Contrôlée pour l'Optimisation Algorithmique du Code
Controlled Self-Evolution for Algorithmic Code Optimization
January 12, 2026
papers.authors: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI
papers.abstract
Les méthodes d'auto-évolution améliorent la génération de code par des cycles itératifs "générer-vérifier-affiner", mais les approches existantes souffrent d'une faible efficacité d'exploration, échouant à découvrir des solutions présentant une complexité supérieure dans des budgets limités. Cette inefficacité provient du biais d'initialisation qui piège l'évolution dans des régions de solutions médiocres, d'opérations stochastiques non contrôlées manquant de guidage par feedback, et d'une utilisation insuffisante de l'expérience à travers les tâches. Pour résoudre ces goulots d'étranglement, nous proposons l'Auto-évolution Contrôlée (CSE), qui comprend trois composants clés. L'Initialisation par Planification Diversifiée génère des stratégies algorithmiques structurellement distinctes pour une couverture étendue de l'espace des solutions. L'Évolution Génétique remplace les opérations stochastiques par des mécanismes guidés par feedback, permettant une mutation ciblée et un croisement compositionnel. La Mémoire d'Évolution Hiérarchique capture les expériences réussies et échouées aux niveaux inter-tâches et intra-tâche. Les expériences sur EffiBench-X démontrent que CSE surpasse constamment toutes les méthodes de référence sur diverses architectures de grands modèles de langage. De plus, CSE atteint une efficacité supérieure dès les premières générations et maintient une amélioration continue tout au long de l'évolution. Notre code est disponible publiquement à l'adresse https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.