Positie: Agentische Evolutie is de Weg naar de Evolutie van LLM's
Position: Agentic Evolution is the Path to Evolving LLMs
January 30, 2026
Auteurs: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI
Samenvatting
Naarmate grote taalmodelen (LLM's) zich verplaatsen van gecureerde trainingssets naar open-ended, realistische omgevingen, duikt een fundamentele beperking op: statische training kan de voortdurende veranderingen in de implementatieomgeving niet bijbenen. Het opschalen van rekenkracht tijdens training en inferentie verbetert de statische capaciteit, maar overbrugt deze kloof tussen training en implementatie niet. Wij stellen dat het aanpakken van deze beperking een nieuwe schaalas vereist: evolutie. Bestaande aanpassingsmethoden tijdens implementatie, of het nu gaat om parametrische fine-tuning of heuristische geheugenaccumulatie, missen de strategische agentiviteit die nodig is om fouten te diagnosticeren en duurzame verbeteringen te produceren. Ons standpunt is dat agent-gebaseerde evolutie de onvermijdelijke toekomst vertegenwoordigt van LLM-aanpassing, waarbij evolutie zelf wordt verheven van een vaste pijplijn naar een autonome evolutie-agent. Wij concretiseren deze visie in een algemeen framework, A-Evolve, dat verbetering tijdens implementatie behandelt als een doelgericht optimalisatieproces van persistente systeemtoestand. Verder stellen wij de evolutie-schalingshypothese voor: de aanpassingscapaciteit schaalt met de aan evolutie toegewezen rekenkracht, wat agent-gebaseerde evolutie positioneert als een schaalbare weg naar volgehouden, open-ended aanpassing in de echte wereld.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.