За пределами конвейеров: обзор смены парадигмы в сторону модельно-ориентированного агентного ИИ
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
Авторы: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
Аннотация
Быстрая эволюция агентного ИИ знаменует собой новый этап в области искусственного интеллекта, где крупные языковые модели (LLM) больше не просто реагируют, а действуют, рассуждают и адаптируются. В этом обзоре прослеживается смена парадигмы в создании агентного ИИ: от систем на основе конвейеров, где планирование, использование инструментов и память управляются внешней логикой, к новой парадигме Model-native, где эти возможности интегрированы в параметры модели. Сначала мы рассматриваем обучение с подкреплением (RL) как алгоритмический механизм, обеспечивающий этот сдвиг. Переосмысливая обучение от имитации статических данных к исследованию, ориентированному на результат, RL лежит в основе унифицированного подхода LLM + RL + Task, охватывающего языковые, визуальные и воплощенные области. На основе этого обзор систематически рассматривает, как каждая из возможностей — планирование, использование инструментов и память — эволюционировала от внешне скриптованных модулей к поведению, обученному end-to-end. Кроме того, исследуется, как этот сдвиг парадигмы изменил основные приложения агентов, в частности агента Deep Research, акцентирующего долгосрочное рассуждение, и GUI-агента, ориентированного на воплощенное взаимодействие. В заключение обсуждается дальнейшая интеграция агентных возможностей, таких как многокомпонентное сотрудничество и рефлексия, а также эволюция ролей системного и модельного уровней в будущем агентном ИИ. Вместе эти разработки очерчивают последовательную траекторию к Model-native агентному ИИ как интегрированной системе обучения и взаимодействия, знаменуя переход от создания систем, применяющих интеллект, к разработке моделей, которые развивают интеллект через опыт.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.