Voorbij Pijplijnen: Een Overzicht van de Paradigmaverschuiving naar Model-Natieve Agentgerichte AI
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
Auteurs: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
Samenvatting
De snelle evolutie van agent-gebaseerde AI markeert een nieuwe fase in kunstmatige intelligentie, waarbij Large Language Models (LLMs) niet langer slechts reageren, maar handelen, redeneren en zich aanpassen. Dit overzicht traceert de paradigmaverschuiving in het bouwen van agent-gebaseerde AI: van pijplijn-gebaseerde systemen, waar planning, gereedschapsgebruik en geheugen worden georkestreerd door externe logica, naar het opkomende Model-native paradigma, waar deze capaciteiten zijn geïnternaliseerd binnen de parameters van het model. We positioneren eerst Reinforcement Learning (RL) als de algoritmische motor die deze paradigmaverschuiving mogelijk maakt. Door leren te herformuleren van het imiteren van statische data naar uitkomstgedreven exploratie, ondersteunt RL een geïntegreerde oplossing van LLM + RL + Taak over taal, visie en embodied domeinen. Hierop voortbouwend, bespreekt het overzicht systematisch hoe elke capaciteit — Planning, Gereedschapsgebruik en Geheugen — is geëvolueerd van extern gescripte modules naar end-to-end aangeleerd gedrag. Verder onderzoekt het hoe deze paradigmaverschuiving belangrijke agenttoepassingen heeft hervormd, specifiek de Deep Research-agent die zich richt op langetermijnredenering en de GUI-agent die zich richt op embodied interactie. We sluiten af met een bespreking van de voortdurende internalisatie van agentcapaciteiten zoals Multi-agent samenwerking en Reflectie, naast de evoluerende rollen van de systeem- en modellagen in toekomstige agent-gebaseerde AI. Samen schetsen deze ontwikkelingen een coherent traject naar model-native agent-gebaseerde AI als een geïntegreerd leer- en interactiekader, wat de overgang markeert van het bouwen van systemen die intelligentie toepassen naar het ontwikkelen van modellen die intelligentie laten groeien door ervaring.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.