ChatPaper.aiChatPaper

Externalisatie in LLM-Agenten: Een Geïntegreerd Overzicht van Geheugen, Vaardigheden, Protocollen en Sturingstechnieken

Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering

April 9, 2026
Auteurs: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI

Samenvatting

Grootschalige taalmodel (LLM) agenten worden tegenwoordig steeds minder gebouwd door modelgewichten aan te passen, en meer door de runtime eromheen te herorganiseren. Capaciteiten die eerdere systemen verwachtten dat het model intern zou verwerven, worden nu naar buiten gebracht in geheugenopslag, herbruikbare vaardigheden, interactieprotocollen en het omringende raamwerk dat deze modules in de praktijk betrouwbaar maakt. Dit artikel belicht deze verschuiving door de lens van externalisatie. Voortbordurend op het idee van cognitieve artefacten, beargumenteren we dat agentinfrastructuur van belang is, niet slechts omdat het hulpcomponenten toevoegt, maar omdat het zware cognitieve lasten transformeert naar vormen die het model betrouwbaarder kan oplossen. In dit perspectief externaliseert geheugen toestand over tijd, externaliseren vaardigheden procedurele expertise, externaliseren protocollen interactiestructuur, en dient raamwerktechniek als de integratielaag die deze coördineert tot beheerde uitvoering. We volgen een historische progressie van gewichten naar context naar raamwerk, analyseren geheugen, vaardigheden en protocollen als drie onderscheiden maar gekoppelde vormen van externalisatie, en onderzoeken hoe zij binnen een groter agentsysteem interacteren. We bespreken verder de afweging tussen parametrische en geëxternaliseerde capaciteit, identificeren opkomende richtingen zoals zelf-evoluerende raamwerken en gedeelde agentinfrastructuur, en bespreken open uitdagingen op het gebied van evaluatie, governance en de lange-termijn co-evolutie van modellen en externe infrastructuur. Het resultaat is een systeemniveau-raamwerk om uit te leggen waarom praktische vooruitgang bij agenten steeds meer afhangt van niet alleen sterkere modellen, maar ook van betere externe cognitieve infrastructuur.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.
PDF432April 13, 2026