ChatPaper.aiChatPaper

Posição: A Evolução Agente é o Caminho para a Evolução dos LLMs

Position: Agentic Evolution is the Path to Evolving LLMs

January 30, 2026
Autores: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI

Resumo

À medida que os Modelos de Língua Grande (LLMs) transitam de conjuntos de treino curados para ambientes reais de implantação de natureza aberta, uma limitação fundamental emerge: o treino estático não consegue acompanhar a contínua mudança do ambiente de implantação. A escalagem da computação no momento do treino e da inferência melhora a capacidade estática, mas não fecha esta lacuna entre treino e implantação. Defendemos que abordar esta limitação requer um novo eixo de escalagem: a evolução. Os métodos existentes de adaptação em tempo de implantação, sejam através de *fine-tuning* paramétrico ou de acumulação heurística em memória, carecem da capacidade estratégica necessária para diagnosticar falhas e produzir melhorias duradouras. A nossa posição é que a evolução agentiva representa o futuro inevitável da adaptação de LLMs, elevando a própria evolução de um *pipeline* fixo para um agente evolucionário autónomo. Instanciamos esta visão num quadro geral, o A-Evolve, que trata a melhoria em tempo de implantação como um processo de otimização deliberado e orientado a objetivos sobre o estado persistente do sistema. Propomos ainda a hipótese da escalagem da evolução: a capacidade de adaptação escala com a capacidade computacional alocada para a evolução, posicionando a evolução agentiva como um caminho escalável para uma adaptação sustentada e de natureza aberta no mundo real.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.
PDF63March 19, 2026