Kontrollierte Selbstevolution zur algorithmischen Code-Optimierung
Controlled Self-Evolution for Algorithmic Code Optimization
January 12, 2026
papers.authors: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI
papers.abstract
Selbstevolutionsmethoden verbessern die Codegenerierung durch iterative "Generieren-Verifizieren-Verfeinern"-Zyklen. Bestehende Ansätze leiden jedoch unter geringer Explorationseffizienz und scheitern daran, Lösungen mit höherer Komplexität innerhalb begrenzter Budgets zu finden. Diese Ineffizienz resultiert aus Initialisierungsverzerrungen, die die Evolution in schlechten Lösungsregionen gefangen halten, unkontrollierten stochastischen Operationen ohne Feedbacksteuerung und unzureichender Nutzung von Erfahrungswissen über Aufgaben hinweg. Um diese Engpässe zu adressieren, schlagen wir Kontrollierte Selbstevolution (CSE) vor, die aus drei Schlüsselkomponenten besteht. Diversifizierte Planungsinitialisierung erzeugt strukturell unterschiedliche algorithmische Strategien für breite Lösungsraumabdeckung. Genetische Evolution ersetzt stochastische Operationen durch feedbackgesteuerte Mechanismen, die gezielte Mutation und kompositionelle Kreuzung ermöglichen. Hierarchischer Evolutionsspeicher erfasst sowohl erfolgreiche als auch fehlgeschlagene Erfahrungen auf inter-task- und intra-task-Ebenen. Experimente auf EffiBench-X zeigen, dass CSE durchgängig alle Baseline-Methoden über verschiedene LLM-Backbones hinweg übertrifft. Darüber hinaus erreicht CSE höhere Effizienz ab frühen Generationen und bewahrt kontinuierliche Verbesserung während der gesamten Evolution. Unser Code ist öffentlich verfügbar unter https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.