ChatPaper.aiChatPaper

Position : L'évolution agentique est la voie pour faire évoluer les LLM

Position: Agentic Evolution is the Path to Evolving LLMs

January 30, 2026
papers.authors: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI

papers.abstract

À mesure que les modèles de langage de grande taille (LLM) passent d'ensembles d'entraînement soigneusement constitués à des environnements réels ouverts, une limitation fondamentale émerge : l'entraînement statique ne peut pas suivre le rythme des changements continus de l'environnement de déploiement. L'augmentation des capacités de calcul lors de l'entraînement et de l'inférence améliore les performances statiques, mais ne comble pas cet écart entre l'entraînement et le déploiement. Nous soutenons que pour résoudre cette limitation, un nouvel axe d'échelle est nécessaire : l'évolution. Les méthodes d'adaptation existantes au moment du déploiement, qu'il s'agisse de réglage fin paramétrique ou d'accumulation heuristique en mémoire, manquent de l'agentivité stratégique nécessaire pour diagnostiquer les échecs et produire des améliorations durables. Notre position est que l'évolution agentique représente l'avenir inévitable de l'adaptation des LLM, élevant l'évolution elle-même d'un pipeline fixe à un agent évolueur autonome. Nous concrétisons cette vision dans un cadre général, A-Evolve, qui traite l'amélioration en temps de déploiement comme un processus d'optimisation délibéré et orienté vers un but, agissant sur l'état persistant du système. Nous proposons en outre l'hypothèse de l'échelle d'évolution : la capacité d'adaptation augmente avec la puissance de calcul allouée à l'évolution, positionnant l'évolution agentique comme une voie évolutive vers une adaptation soutenue et ouverte dans le monde réel.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.
PDF53February 8, 2026