Posizione: l'Evoluzione Agente è il Percorso per l'Evoluzione dei LLM
Position: Agentic Evolution is the Path to Evolving LLMs
January 30, 2026
Autori: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI
Abstract
Man mano che i Large Language Model (LLM) passano da dataset di addestramento curati ad ambienti real-world aperti, emerge una limitazione fondamentale: l'addestramento statico non riesce a tenere il passo con i cambiamenti continui dell'ambiente di deployment. Il potenziamento del calcolo in fase di addestramento e di inferenza migliora le capacità statiche, ma non colma questo divario train-deploy. Sosteniamo che per affrontare questa limitazione sia necessario un nuovo asse di scalabilità: l'evoluzione. I metodi di adattamento esistenti durante il deployment, che si tratti di fine-tuning parametrico o di accumulo euristico in memoria, mancano dell'agentività strategica necessaria per diagnosticare i fallimenti e produrre miglioramenti duraturi. La nostra posizione è che l'evoluzione agenziale rappresenti il futuro inevitabile dell'adattamento degli LLM, elevando l'evoluzione stessa da una pipeline fissa a un agente evolutore autonomo. Istanziamo questa visione in un framework generale, A-Evolve, che tratta il miglioramento in fase di deployment come un processo di ottimizzazione deliberato e orientato a obiettivi, operante su uno stato di sistema persistente. Proponiamo inoltre l'ipotesi della scalabilità evolutiva: la capacità di adattamento scala con la potenza di calcolo allocata all'evoluzione, posizionando l'evoluzione agenziale come un percorso scalabile verso un adattamento sostenuto e aperto nel mondo reale.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.