Oltre le Pipeline: Un'Analisi del Cambiamento di Paradigma verso l'IA Agente Nativamente Modellata
Beyond Pipelines: A Survey of the Paradigm Shift toward Model-Native Agentic AI
October 19, 2025
Autori: Jitao Sang, Jinlin Xiao, Jiarun Han, Jilin Chen, Xiaoyi Chen, Shuyu Wei, Yongjie Sun, Yuhang Wang
cs.AI
Abstract
La rapida evoluzione dell'IA agentica segna una nuova fase nell'intelligenza artificiale, in cui i Large Language Models (LLM) non si limitano più a rispondere, ma agiscono, ragionano e si adattano. Questo studio traccia il cambiamento di paradigma nella costruzione dell'IA agentica: dai sistemi basati su pipeline, in cui la pianificazione, l'uso di strumenti e la memoria sono orchestrati da logiche esterne, al paradigma emergente Model-native, in cui queste capacità sono internalizzate nei parametri del modello. In primo luogo, posizioniamo il Reinforcement Learning (RL) come il motore algoritmico che abilita questo cambiamento di paradigma. Riformulando l'apprendimento dall'imitazione di dati statici all'esplorazione guidata dai risultati, il RL sostiene una soluzione unificata di LLM + RL + Task attraverso i domini linguistici, visivi e incarnati. Basandosi su questo, lo studio esamina sistematicamente come ciascuna capacità — Pianificazione, Uso di strumenti e Memoria — si sia evoluta da moduli esterni scriptati a comportamenti appresi end-to-end. Inoltre, analizza come questo cambiamento di paradigma abbia ridisegnato le principali applicazioni degli agenti, in particolare l'agente di Deep Research che enfatizza il ragionamento a lungo termine e l'agente GUI che enfatizza l'interazione incarnata. Concludiamo discutendo la continua internalizzazione delle capacità agentiche come la collaborazione multi-agente e la riflessione, insieme ai ruoli evolutivi degli strati di sistema e modello nella futura IA agentica. Insieme, questi sviluppi delineano una traiettoria coerente verso un'IA agentica Model-native come framework integrato di apprendimento e interazione, segnando il passaggio dalla costruzione di sistemi che applicano l'intelligenza allo sviluppo di modelli che fanno crescere l'intelligenza attraverso l'esperienza.
English
The rapid evolution of agentic AI marks a new phase in artificial
intelligence, where Large Language Models (LLMs) no longer merely respond but
act, reason, and adapt. This survey traces the paradigm shift in building
agentic AI: from Pipeline-based systems, where planning, tool use, and memory
are orchestrated by external logic, to the emerging Model-native paradigm,
where these capabilities are internalized within the model's parameters. We
first position Reinforcement Learning (RL) as the algorithmic engine enabling
this paradigm shift. By reframing learning from imitating static data to
outcome-driven exploration, RL underpins a unified solution of LLM + RL + Task
across language, vision and embodied domains. Building on this, the survey
systematically reviews how each capability -- Planning, Tool use, and Memory --
has evolved from externally scripted modules to end-to-end learned behaviors.
Furthermore, it examines how this paradigm shift has reshaped major agent
applications, specifically the Deep Research agent emphasizing long-horizon
reasoning and the GUI agent emphasizing embodied interaction. We conclude by
discussing the continued internalization of agentic capabilities like
Multi-agent collaboration and Reflection, alongside the evolving roles of the
system and model layers in future agentic AI. Together, these developments
outline a coherent trajectory toward model-native agentic AI as an integrated
learning and interaction framework, marking the transition from constructing
systems that apply intelligence to developing models that grow intelligence
through experience.