ChatPaper.aiChatPaper

Além de Pipelines: Uma Análise da Mudança de Paradigma em Direção à IA Agente Nativamente Orientada a Modelos

Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI

October 19, 2025
Autores: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI

Resumo

A rápida evolução da IA agentiva marca uma nova fase na inteligência artificial, onde os Modelos de Linguagem de Grande Escala (LLMs) não apenas respondem, mas agem, raciocinam e se adaptam. Esta pesquisa traça a mudança de paradigma na construção da IA agentiva: de sistemas baseados em pipelines, onde o planejamento, o uso de ferramentas e a memória são orquestrados por lógica externa, para o emergente paradigma Model-native, onde essas capacidades são internalizadas nos parâmetros do modelo. Primeiro, posicionamos o Aprendizado por Reforço (RL) como o motor algorítmico que possibilita essa mudança de paradigma. Ao reformular o aprendizado da imitação de dados estáticos para a exploração orientada por resultados, o RL sustenta uma solução unificada de LLM + RL + Tarefa em domínios de linguagem, visão e interação corporificada. Com base nisso, a pesquisa revisa sistematicamente como cada capacidade — Planejamento, Uso de Ferramentas e Memória — evoluiu de módulos externamente scriptados para comportamentos aprendidos de ponta a ponta. Além disso, examina como essa mudança de paradigma remodelou as principais aplicações de agentes, especificamente o agente de Pesquisa Profunda, que enfatiza o raciocínio de longo prazo, e o agente de Interface Gráfica (GUI), que enfatiza a interação corporificada. Concluímos discutindo a contínua internalização de capacidades agentivas, como a colaboração Multiagente e a Reflexão, juntamente com os papéis em evolução das camadas de sistema e modelo na futura IA agentiva. Juntos, esses desenvolvimentos delineiam uma trajetória coerente em direção à IA agentiva Model-native como um framework integrado de aprendizado e interação, marcando a transição da construção de sistemas que aplicam inteligência para o desenvolvimento de modelos que cultivam inteligência por meio da experiência.
English
The rapid evolution of agentic AI marks a new phase in artificial intelligence, where Large Language Models (LLMs) no longer merely respond but act, reason, and adapt. This survey traces the paradigm shift in building agentic AI: from Pipeline-based systems, where planning, tool use, and memory are orchestrated by external logic, to the emerging Model-native paradigm, where these capabilities are internalized within the model's parameters. We first position Reinforcement Learning (RL) as the algorithmic engine enabling this paradigm shift. By reframing learning from imitating static data to outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task across language, vision and embodied domains. Building on this, the survey systematically reviews how each capability -- Planning, Tool use, and Memory -- has evolved from externally scripted modules to end-to-end learned behaviors. Furthermore, it examines how this paradigm shift has reshaped major agent applications, specifically the Deep Research agent emphasizing long-horizon reasoning and the GUI agent emphasizing embodied interaction. We conclude by discussing the continued internalization of agentic capabilities like Multi-agent collaboration and Reflection, alongside the evolving roles of the system and model layers in future agentic AI. Together, these developments outline a coherent trajectory toward model-native agentic AI as an integrated learning and interaction framework, marking the transition from constructing systems that apply intelligence to developing models that grow intelligence through experience.
PDF62October 21, 2025