Позиция: Агентная эволюция — путь к развитию больших языковых моделей
Position: Agentic Evolution is the Path to Evolving LLMs
January 30, 2026
Авторы: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI
Аннотация
По мере перехода больших языковых моделей (LLM) от курируемых обучающих наборов к открытым реальным средам возникает фундаментальное ограничение: статическое обучение не успевает за постоянными изменениями в среде развертывания. Масштабирование вычислительных ресурсов на этапах обучения и вывода улучшает статические возможности, но не устраняет разрыв между обучением и развертыванием. Мы утверждаем, что для преодоления этого ограничения требуется новая ось масштабирования — эволюция. Существующие методы адаптации во время развертывания, будь то параметрическая тонкая настройка или эвристическое накопление памяти, лишены стратегической агентности, необходимой для диагностики сбоев и создания устойчивых улучшений. Наша позиция заключается в том, что агентная эволюция представляет собой неизбежное будущее адаптации LLM, преобразуя саму эволюцию из фиксированного конвейера в автономного агента-эволюционера. Мы реализуем это видение в общей структуре A-Evolve, которая рассматривает улучшение во время развертывания как целенаправленный оптимизационный процесс над постоянным состоянием системы. Кроме того, мы предлагаем гипотезу масштабирования эволюции: способность к адаптации масштабируется с объемом вычислений, выделенных на эволюцию, что позиционирует агентную эволюцию как масштабируемый путь к устойчивой адаптации в открытом мире.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.