ChatPaper.aiChatPaper

Position: Agentische Evolution ist der Weg zur Weiterentwicklung von LLMs.

Position: Agentic Evolution is the Path to Evolving LLMs

January 30, 2026
papers.authors: Minhua Lin, Hanqing Lu, Zhan Shi, Bing He, Rui Mao, Zhiwei Zhang, Zongyu Wu, Xianfeng Tang, Hui Liu, Zhenwei Dai, Xiang Zhang, Suhang Wang, Benoit Dumoulin, Jian Pei
cs.AI

papers.abstract

Da sich große Sprachmodelle (LLMs) von kuratierten Trainingsdatensätzen hin zu offenen realen Umgebungen bewegen, tritt eine grundlegende Einschränkung zutage: Statisches Training kann mit den kontinuierlichen Veränderungen des Einsatzumfelds nicht Schritt halten. Die Skalierung von Rechenleistung während des Trainings und des Inferenzzeitpunkts verbessert zwar statische Fähigkeiten, schließt jedoch diese Trainings-Einsatz-Lücke nicht. Wir vertreten die Ansicht, dass zur Bewältigung dieser Einschränkung eine neue Skalierungsachse erforderlich ist: Evolution. Bestehende Methoden zur Anpassung während des Einsatzes – sei es parametrisches Fine-Tuning oder heuristische Speicheranreicherung – entbehren der strategischen Agentivität, die notwendig ist, um Fehler zu diagnostizieren und dauerhafte Verbesserungen zu erzielen. Unser Standpunkt ist, dass agentenbasierte Evolution die unausweichliche Zukunft der LLM-Adaption darstellt, wobei die Evolution selbst von einer festen Pipeline zu einem autonomen Evolutionsagenten erhoben wird. Wir setzen diese Vision in einem allgemeinen Framework namens A-Evolve um, das Verbesserungen während des Einsatzes als einen bewussten, zielgerichteten Optimierungsprozess über persistente Systemzustände behandelt. Des Weiteren postulieren wir die Evolutions-Skalierungshypothese: Die Anpassungsfähigkeit skaliert mit der für die Evolution bereitgestellten Rechenleistung, was agentenbasierte Evolution als skalierbaren Weg für anhaltende, offene Adaptation in der realen Welt positioniert.
English
As Large Language Models (LLMs) move from curated training sets into open-ended real-world environments, a fundamental limitation emerges: static training cannot keep pace with continual deployment environment change. Scaling training-time and inference-time compute improves static capability but does not close this train-deploy gap. We argue that addressing this limitation requires a new scaling axis-evolution. Existing deployment-time adaptation methods, whether parametric fine-tuning or heuristic memory accumulation, lack the strategic agency needed to diagnose failures and produce durable improvements. Our position is that agentic evolution represents the inevitable future of LLM adaptation, elevating evolution itself from a fixed pipeline to an autonomous evolver agent. We instantiate this vision in a general framework, A-Evolve, which treats deployment-time improvement as a deliberate, goal-directed optimization process over persistent system state. We further propose the evolution-scaling hypothesis: the capacity for adaptation scales with the compute allocated to evolution, positioning agentic evolution as a scalable path toward sustained, open-ended adaptation in the real world.
PDF53February 8, 2026