ChatPaper.aiChatPaper

Voorbij Pijplijnen: Een Overzicht van de Paradigmaverschuiving naar Model-Natieve Agentgerichte AI

Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI

October 19, 2025
Auteurs: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI

Samenvatting

De snelle evolutie van agent-gebaseerde AI markeert een nieuwe fase in kunstmatige intelligentie, waarbij Large Language Models (LLMs) niet langer slechts reageren, maar handelen, redeneren en zich aanpassen. Dit overzicht traceert de paradigmaverschuiving in het bouwen van agent-gebaseerde AI: van pijplijn-gebaseerde systemen, waar planning, gereedschapsgebruik en geheugen worden georkestreerd door externe logica, naar het opkomende Model-native paradigma, waar deze capaciteiten zijn geïnternaliseerd binnen de parameters van het model. We positioneren eerst Reinforcement Learning (RL) als de algoritmische motor die deze paradigmaverschuiving mogelijk maakt. Door leren te herformuleren van het imiteren van statische data naar uitkomstgedreven exploratie, ondersteunt RL een geïntegreerde oplossing van LLM + RL + Taak over taal, visie en embodied domeinen. Hierop voortbouwend, bespreekt het overzicht systematisch hoe elke capaciteit — Planning, Gereedschapsgebruik en Geheugen — is geëvolueerd van extern gescripte modules naar end-to-end aangeleerd gedrag. Verder onderzoekt het hoe deze paradigmaverschuiving belangrijke agenttoepassingen heeft hervormd, specifiek de Deep Research-agent die zich richt op langetermijnredenering en de GUI-agent die zich richt op embodied interactie. We sluiten af met een bespreking van de voortdurende internalisatie van agentcapaciteiten zoals Multi-agent samenwerking en Reflectie, naast de evoluerende rollen van de systeem- en modellagen in toekomstige agent-gebaseerde AI. Samen schetsen deze ontwikkelingen een coherent traject naar model-native agent-gebaseerde AI als een geïntegreerd leer- en interactiekader, wat de overgang markeert van het bouwen van systemen die intelligentie toepassen naar het ontwikkelen van modellen die intelligentie laten groeien door ervaring.
English
The rapid evolution of agentic AI marks a new phase in artificial intelligence, where Large Language Models (LLMs) no longer merely respond but act, reason, and adapt. This survey traces the paradigm shift in building agentic AI: from Pipeline-based systems, where planning, tool use, and memory are orchestrated by external logic, to the emerging Model-native paradigm, where these capabilities are internalized within the model's parameters. We first position Reinforcement Learning (RL) as the algorithmic engine enabling this paradigm shift. By reframing learning from imitating static data to outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task across language, vision and embodied domains. Building on this, the survey systematically reviews how each capability -- Planning, Tool use, and Memory -- has evolved from externally scripted modules to end-to-end learned behaviors. Furthermore, it examines how this paradigm shift has reshaped major agent applications, specifically the Deep Research agent emphasizing long-horizon reasoning and the GUI agent emphasizing embodied interaction. We conclude by discussing the continued internalization of agentic capabilities like Multi-agent collaboration and Reflection, alongside the evolving roles of the system and model layers in future agentic AI. Together, these developments outline a coherent trajectory toward model-native agentic AI as an integrated learning and interaction framework, marking the transition from constructing systems that apply intelligence to developing models that grow intelligence through experience.
PDF62October 21, 2025