Au-delà des pipelines : Un aperçu du changement de paradigme vers l'IA agentique native aux modèles
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
papers.authors: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
papers.abstract
L'évolution rapide de l'IA agentielle marque une nouvelle phase dans l'intelligence artificielle, où les modèles de langage de grande taille (LLMs) ne se contentent plus de répondre, mais agissent, raisonnent et s'adaptent. Cette étude retrace le changement de paradigme dans la construction de l'IA agentielle : des systèmes basés sur des pipelines, où la planification, l'utilisation d'outils et la mémoire sont orchestrées par une logique externe, au paradigme émergent Model-native, où ces capacités sont internalisées dans les paramètres du modèle. Nous positionnons d'abord l'apprentissage par renforcement (RL) comme le moteur algorithmique permettant ce changement de paradigme. En reformulant l'apprentissage de l'imitation de données statiques à l'exploration axée sur les résultats, le RL soutient une solution unifiée de LLM + RL + Tâche à travers les domaines du langage, de la vision et de l'interaction incarnée. Sur cette base, l'étude passe en revue systématiquement comment chaque capacité — Planification, Utilisation d'outils et Mémoire — a évolué de modules scriptés de manière externe à des comportements appris de bout en bout. De plus, elle examine comment ce changement de paradigme a remodelé les principales applications d'agents, en particulier l'agent de recherche approfondie mettant l'accent sur le raisonnement à long terme et l'agent d'interface graphique (GUI) mettant l'accent sur l'interaction incarnée. Nous concluons en discutant de l'internalisation continue des capacités agentielles comme la collaboration multi-agents et la réflexion, ainsi que des rôles évolutifs des couches système et modèle dans l'IA agentielle future. Ensemble, ces développements tracent une trajectoire cohérente vers une IA agentielle Model-native comme cadre intégré d'apprentissage et d'interaction, marquant la transition de la construction de systèmes qui appliquent l'intelligence au développement de modèles qui cultivent l'intelligence par l'expérience.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.