파이프라인을 넘어서: 모델-네이티브 에이전트 AI로의 패러다임 전환에 대한 조사
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
저자: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
초록
에이전트형 AI의 급속한 진화는 인공지능의 새로운 단계를 나타내며, 이제 대형 언어 모델(LLMs)은 단순히 응답하는 것을 넘어 행동하고, 추론하며, 적응합니다. 이 설문은 에이전트형 AI 구축에서의 패러다임 전환을 추적합니다: 외부 로직에 의해 계획, 도구 사용, 메모리가 조율되는 파이프라인 기반 시스템에서, 이러한 능력들이 모델의 파라미터 내부에 내재화된 모델-네이티브 패러다임으로의 전환을 다룹니다. 먼저, 강화 학습(RL)을 이 패러다임 전환을 가능하게 하는 알고리즘 엔진으로 위치시킵니다. 정적 데이터를 모방하는 학습에서 결과 중심의 탐색으로 학습을 재구성함으로써, RL은 언어, 시각, 그리고 구체화된 영역에 걸쳐 LLM + RL + Task의 통합 솔루션을 뒷받침합니다. 이를 바탕으로, 이 설문은 각 능력 — 계획, 도구 사용, 메모리 — 이 외부 스크립트 모듈에서 종단 간 학습된 행동으로 어떻게 진화했는지를 체계적으로 검토합니다. 더 나아가, 이 패러다임 전환이 주요 에이전트 애플리케이션, 특히 장기적 추론을 강조하는 딥 리서치 에이전트와 구체화된 상호작용을 강조하는 GUI 에이전트를 어떻게 재구성했는지 살펴봅니다. 결론적으로, 다중 에이전트 협업과 반성과 같은 에이전트 능력의 지속적인 내재화와 함께, 미래 에이전트형 AI에서 시스템과 모델 계층의 진화하는 역할을 논의합니다. 이러한 발전들은 통합된 학습 및 상호작용 프레임워크로서의 모델-네이티브 에이전트형 AI로의 일관된 궤적을 그리며, 지능을 적용하는 시스템을 구축하는 것에서 경험을 통해 지능을 성장시키는 모델을 개발하는 것으로의 전환을 표시합니다.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.