Posición: La Evolución Agéntica es el Camino para Evolucionar los Modelos de Lenguaje Grande
Position: Agentic Evolution is the Path to Evolving LLMs
January 30, 2026
Autores: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI
Resumen
A medida que los Modelos de Lenguaje a Gran Escala (LLMs) transitan de conjuntos de entrenamiento cuidadosamente seleccionados hacia entornos del mundo real de naturaleza abierta, surge una limitación fundamental: el entrenamiento estático no puede seguir el ritmo del cambio continuo en los entornos de despliegue. Escalar la capacidad de cómputo en el momento del entrenamiento y de la inferencia mejora las capacidades estáticas, pero no cierra esta brecha entre entrenamiento y despliegue. Sostenemos que abordar esta limitación requiere un nuevo eje de escalado: la evolución. Los métodos existentes de adaptación durante el despliegue, ya sea el ajuste fino paramétrico o la acumulación heurística en memoria, carecen de la capacidad de agencia estratégica necesaria para diagnosticar fallos y producir mejoras duraderas. Nuestra postura es que la evolución agéntica representa el futuro inevitable de la adaptación de los LLMs, elevando la propia evolución de una canalización fija a un agente evolucionador autónomo. Materializamos esta visión en un marco general, A-Evolve, que trata la mejora durante el despliegue como un proceso de optimización deliberado y orientado a objetivos sobre el estado persistente del sistema. Además, proponemos la hipótesis del escalado evolutivo: la capacidad de adaptación escala con la capacidad de cómputo asignada a la evolución, posicionando a la evolución agéntica como una vía escalable hacia una adaptación sostenida y de horizonte abierto en el mundo real.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.