ChatPaper.aiChatPaper

Más allá de las tuberías: una revisión del cambio de paradigma hacia la IA agentiva nativa de modelos

Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI

October 19, 2025
Autores: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI

Resumen

La rápida evolución de la IA agentiva marca una nueva fase en la inteligencia artificial, donde los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) ya no solo responden, sino que actúan, razonan y se adaptan. Este estudio traza el cambio de paradigma en la construcción de la IA agentiva: desde los sistemas basados en tuberías, donde la planificación, el uso de herramientas y la memoria son orquestados por lógica externa, hasta el paradigma emergente de Modelo-nativo, donde estas capacidades están internalizadas dentro de los parámetros del modelo. Primero, posicionamos el Aprendizaje por Refuerzo (RL, por sus siglas en inglés) como el motor algorítmico que permite este cambio de paradigma. Al reformular el aprendizaje desde la imitación de datos estáticos hacia la exploración impulsada por resultados, el RL sustenta una solución unificada de LLM + RL + Tarea en los dominios del lenguaje, la visión y la interacción corporeizada. Sobre esta base, el estudio revisa sistemáticamente cómo cada capacidad —Planificación, Uso de herramientas y Memoria— ha evolucionado desde módulos externamente guionizados hasta comportamientos aprendidos de extremo a extremo. Además, examina cómo este cambio de paradigma ha transformado las principales aplicaciones de agentes, específicamente el agente de Investigación Profunda, que enfatiza el razonamiento de largo alcance, y el agente de Interfaz Gráfica de Usuario (GUI), que enfatiza la interacción corporeizada. Concluimos discutiendo la internalización continua de capacidades agentivas como la colaboración multiagente y la reflexión, junto con los roles en evolución de las capas del sistema y del modelo en la futura IA agentiva. En conjunto, estos desarrollos delinean una trayectoria coherente hacia la IA agentiva de modelo-nativo como un marco integrado de aprendizaje e interacción, marcando la transición desde la construcción de sistemas que aplican inteligencia hacia el desarrollo de modelos que cultivan la inteligencia a través de la experiencia.
English
The rapid evolution of agentic AI marks a new phase in artificial intelligence, where Large Language Models (LLMs) no longer merely respond but act, reason, and adapt. This survey traces the paradigm shift in building agentic AI: from Pipeline-based systems, where planning, tool use, and memory are orchestrated by external logic, to the emerging Model-native paradigm, where these capabilities are internalized within the model's parameters. We first position Reinforcement Learning (RL) as the algorithmic engine enabling this paradigm shift. By reframing learning from imitating static data to outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task across language, vision and embodied domains. Building on this, the survey systematically reviews how each capability -- Planning, Tool use, and Memory -- has evolved from externally scripted modules to end-to-end learned behaviors. Furthermore, it examines how this paradigm shift has reshaped major agent applications, specifically the Deep Research agent emphasizing long-horizon reasoning and the GUI agent emphasizing embodied interaction. We conclude by discussing the continued internalization of agentic capabilities like Multi-agent collaboration and Reflection, alongside the evolving roles of the system and model layers in future agentic AI. Together, these developments outline a coherent trajectory toward model-native agentic AI as an integrated learning and interaction framework, marking the transition from constructing systems that apply intelligence to developing models that grow intelligence through experience.
PDF62October 21, 2025