Контролируемая самоэволюция для алгоритмической оптимизации кода
Controlled Self-Evolution for Algorithmic Code Optimization
January 12, 2026
Авторы: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang
cs.AI
Аннотация
Методы самоэволюции улучшают генерацию кода посредством итерационных циклов «генерация-верификация-уточнение», однако существующие подходы страдают от низкой эффективности исследования, не позволяя находить решения повышенной сложности в условиях ограниченных ресурсов. Эта неэффективность обусловлена тремя факторами: смещением инициализации, задерживающим эволюцию в областях неоптимальных решений; неконтролируемыми стохастическими операциями, лишенными обратной связи; и недостаточным использованием накопленного опыта между задачами. Для преодоления этих ограничений мы предлагаем метод контролируемой самоэволюции (CSE), состоящий из трех ключевых компонентов. Диверсифицированная инициализация планирования генерирует структурно различные алгоритмические стратегии для широкого охвата пространства решений. Генетическая эволюция заменяет стохастические операции механизмами с управлением по обратной связи, обеспечивая целенаправленную мутацию и композиционное скрещивание. Иерархическая память эволюции фиксирует как успешный, так и неудачный опыт на межадачном и внутризадачном уровнях. Эксперименты на EffiBench-X показывают, что CSE стабильно превосходит все базовые методы при использовании различных LLM-архитектур. Кроме того, CSE демонстрирует более высокую эффективность с ранних поколений и сохраняет непрерывное улучшение на протяжении всей эволюции. Наш код доступен по адресу https://github.com/QuantaAlpha/EvoControl.
English
Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks. To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels. Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.