ChatPaper.aiChatPaper

Gecontroleerde Zelfevolutie voor Algoritmische Code-optimalisatie

Controlled Self-Evolution for Algorithmic Code Optimization

January 12, 2026
Auteurs: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI

Samenvatting

Zelf-evolutiemethoden verbeteren codegeneratie via iteratieve "genereren-verifiëren-verfijnen" cycli, maar bestaande aanpakken lijden onder lage verkenningsefficiëntie, waardoor ze er niet in slagen oplossingen met superieure complexiteit te ontdekken binnen beperkte budgetten. Deze inefficiëntie ontstaat doordat initialisatiebias de evolutie vasthoudt in gebieden met suboptimale oplossingen, door ongecontroleerde stochastische operaties zonder feedbacksturing, en door onvoldoende benutting van ervaring tussen taken. Om deze knelpunten aan te pakken, stellen we Gecontroleerde Zelf-Evolutie (CSE) voor, die uit drie kernelementen bestaat. Gediversifieerde Planinitialisatie genereert structureel verschillende algoritmische strategieën voor brede dekking van de oplossingsruimte. Genetische Evolutie vervangt stochastische operaties door feedback-gestuurde mechanismen, waardoor gerichte mutatie en compositionele crossover mogelijk worden. Hiërarchisch Evolutiegeheugen legt zowel succesvolle als mislukte ervaringen vast op inter-taak en intra-taak niveau. Experimenten op EffiBench-X tonen aan dat CSE consequent alle baseline-methoden overtreft across verschillende LLM-backbones. Bovendien bereikt CSE hogere efficiëntie vanaf de vroege generaties en handhaaft het continue verbetering gedurende de hele evolutie. Onze code is openbaar beschikbaar op https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.
PDF1154February 27, 2026