Evolución Autocontrolada para la Optimización Algorítmica de Código
Controlled Self-Evolution for Algorithmic Code Optimization
January 12, 2026
Autores: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI
Resumen
Los métodos de auto-evolución mejoran la generación de código mediante ciclos iterativos de "generar-verificar-refinar", sin embargo, los enfoques existentes adolecen de baja eficiencia exploratoria, lo que les impide descubrir soluciones con complejidad superior dentro de presupuestos limitados. Esta ineficiencia surge del sesgo de inicialización que atrapa la evolución en regiones de soluciones pobres, de operaciones estocásticas no controladas que carecen de guía por retroalimentación, y de una utilización insuficiente de la experiencia entre tareas. Para abordar estos cuellos de botella, proponemos la Auto-Evolución Controlada (CSE), que consta de tres componentes clave. La Inicialización por Planificación Diversificada genera estrategias algorítmicas estructuralmente distintas para una cobertura amplia del espacio de soluciones. La Evolución Genética reemplaza las operaciones estocásticas con mecanismos guiados por retroalimentación, permitiendo mutación dirigida y cruza composicional. La Memoria de Evolución Jerárquica captura experiencias tanto exitosas como fallidas a nivel inter-tarea e intra-tarea. Los experimentos en EffiBench-X demuestran que CSE supera consistentemente a todos los métodos base con varios modelos de lenguaje grandes subyacentes. Además, CSE logra una mayor eficiencia desde las primeras generaciones y mantiene una mejora continua a lo largo de la evolución. Nuestro código está disponible públicamente en https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.