Más allá de las tuberías: una revisión del cambio de paradigma hacia la IA agentiva nativa de modelos
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
Autores: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
Resumen
La rápida evolución de la IA agentiva marca una nueva fase en la inteligencia artificial, donde los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) ya no solo responden, sino que actúan, razonan y se adaptan. Este estudio traza el cambio de paradigma en la construcción de la IA agentiva: desde los sistemas basados en tuberías, donde la planificación, el uso de herramientas y la memoria son orquestados por lógica externa, hasta el paradigma emergente de Modelo-nativo, donde estas capacidades están internalizadas dentro de los parámetros del modelo. Primero, posicionamos el Aprendizaje por Refuerzo (RL, por sus siglas en inglés) como el motor algorítmico que permite este cambio de paradigma. Al reformular el aprendizaje desde la imitación de datos estáticos hacia la exploración impulsada por resultados, el RL sustenta una solución unificada de LLM + RL + Tarea en los dominios del lenguaje, la visión y la interacción corporeizada. Sobre esta base, el estudio revisa sistemáticamente cómo cada capacidad —Planificación, Uso de herramientas y Memoria— ha evolucionado desde módulos externamente guionizados hasta comportamientos aprendidos de extremo a extremo. Además, examina cómo este cambio de paradigma ha transformado las principales aplicaciones de agentes, específicamente el agente de Investigación Profunda, que enfatiza el razonamiento de largo alcance, y el agente de Interfaz Gráfica de Usuario (GUI), que enfatiza la interacción corporeizada. Concluimos discutiendo la internalización continua de capacidades agentivas como la colaboración multiagente y la reflexión, junto con los roles en evolución de las capas del sistema y del modelo en la futura IA agentiva. En conjunto, estos desarrollos delinean una trayectoria coherente hacia la IA agentiva de modelo-nativo como un marco integrado de aprendizaje e interacción, marcando la transición desde la construcción de sistemas que aplican inteligencia hacia el desarrollo de modelos que cultivan la inteligencia a través de la experiencia.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.