ChatPaper.aiChatPaper

Externalização em Agentes de LLM: Uma Revisão Unificada de Memória, Habilidades, Protocolos e Engenharia de Aproveitamento

Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering

April 9, 2026
Autores: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI

Resumo

Os agentes de modelos de linguagem de grande escala (LLM) estão cada vez menos sendo construídos pela alteração dos pesos do modelo e mais pela reorganização do ambiente de execução em torno deles. Capacidades que os sistemas anteriores esperavam que o modelo recuperasse internamente são agora externalizadas em armazenamentos de memória, habilidades reutilizáveis, protocolos de interação e no *harness* circundante que torna esses módulos confiáveis na prática. Este artigo revisa essa mudança através da lente da externalização. Baseando-nos no conceito de artefatos cognitivos, argumentamos que a infraestrutura do agente é importante não apenas porque adiciona componentes auxiliares, mas porque transforma cargas cognitivas complexas em formas que o modelo pode resolver com maior confiabilidade. Sob esta perspectiva, a memória externaliza o estado ao longo do tempo, as habilidades externalizam a expertise procedural, os protocolos externalizam a estrutura de interação e a engenharia do *harness* serve como a camada de unificação que os coordena em uma execução governada. Traçamos uma progressão histórica dos pesos para o contexto e depois para o *harness*, analisamos a memória, as habilidades e os protocolos como três formas distintas mas acopladas de externalização, e examinamos como elas interagem dentro de um sistema de agente maior. Discutimos ainda a relação de compromisso entre capacidade paramétrica e externalizada, identificamos direções emergentes, como *harnesses* de auto-evolução e infraestrutura de agente compartilhada, e debatemos desafios em aberto na avaliação, governança e na coevolução de longo prazo dos modelos com a infraestrutura externa. O resultado é uma estrutura de nível sistêmico para explicar por que o progresso prático dos agentes depende cada vez mais não apenas de modelos mais robustos, mas também de uma melhor infraestrutura cognitiva externa.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.
PDF432April 13, 2026