ChatPaper.aiChatPaper

Jenseits von Pipelines: Eine Übersicht zum Paradigmenwechsel hin zu modellnativer agentenbasierter KI

Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI

October 19, 2025
papers.authors: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI

papers.abstract

Die rasante Entwicklung von agentenbasierter KI markiert eine neue Phase in der künstlichen Intelligenz, in der Large Language Models (LLMs) nicht mehr nur reagieren, sondern handeln, schlussfolgern und sich anpassen. Diese Übersichtsarbeit zeichnet den Paradigmenwechsel beim Aufbau agentenbasierter KI nach: von Pipeline-basierten Systemen, bei denen Planung, Werkzeugnutzung und Gedächtnis durch externe Logik orchestriert werden, hin zum aufkommenden Model-native-Paradigma, bei dem diese Fähigkeiten innerhalb der Modellparameter internalisiert sind. Zunächst positionieren wir Reinforcement Learning (RL) als den algorithmischen Motor, der diesen Paradigmenwechsel ermöglicht. Indem das Lernen von der Nachahmung statischer Daten auf ergebnisgetriebene Exploration umgestellt wird, bildet RL die Grundlage für eine einheitliche Lösung von LLM + RL + Aufgabe über Sprach-, Bild- und verkörperte Domänen hinweg. Aufbauend darauf untersucht die Übersichtsarbeit systematisch, wie sich jede Fähigkeit – Planung, Werkzeugnutzung und Gedächtnis – von extern skriptgesteuerten Modulen zu end-to-end gelernten Verhaltensweisen entwickelt hat. Darüber hinaus wird untersucht, wie dieser Paradigmenwechsel bedeutende Anwendungen von Agenten neu gestaltet hat, insbesondere den Deep Research-Agenten, der langfristiges Schlussfolgern betont, und den GUI-Agenten, der verkörperte Interaktion hervorhebt. Abschließend diskutieren wir die fortgesetzte Internalisierung agentenbasierter Fähigkeiten wie Multi-Agenten-Kollaboration und Reflexion sowie die sich entwickelnden Rollen der System- und Modellebene in zukünftiger agentenbasierter KI. Zusammengenommen skizzieren diese Entwicklungen eine kohärente Trajektorie hin zu model-nativer agentenbasierter KI als einem integrierten Lern- und Interaktionsrahmen, der den Übergang vom Konstruieren von Systemen, die Intelligenz anwenden, zur Entwicklung von Modellen, die Intelligenz durch Erfahrung wachsen lassen, markiert.
English
The rapid evolution of agentic AI marks a new phase in artificial intelligence, where Large Language Models (LLMs) no longer merely respond but act, reason, and adapt. This survey traces the paradigm shift in building agentic AI: from Pipeline-based systems, where planning, tool use, and memory are orchestrated by external logic, to the emerging Model-native paradigm, where these capabilities are internalized within the model's parameters. We first position Reinforcement Learning (RL) as the algorithmic engine enabling this paradigm shift. By reframing learning from imitating static data to outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task across language, vision and embodied domains. Building on this, the survey systematically reviews how each capability -- Planning, Tool use, and Memory -- has evolved from externally scripted modules to end-to-end learned behaviors. Furthermore, it examines how this paradigm shift has reshaped major agent applications, specifically the Deep Research agent emphasizing long-horizon reasoning and the GUI agent emphasizing embodied interaction. We conclude by discussing the continued internalization of agentic capabilities like Multi-agent collaboration and Reflection, alongside the evolving roles of the system and model layers in future agentic AI. Together, these developments outline a coherent trajectory toward model-native agentic AI as an integrated learning and interaction framework, marking the transition from constructing systems that apply intelligence to developing models that grow intelligence through experience.
PDF62October 21, 2025