ChatPaper.aiChatPaper

Externalisierung bei LLM-Agenten: Ein einheitlicher Überblick über Gedächtnis, Fähigkeiten, Protokolle und Harness-Engineering

Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering

April 9, 2026
Autoren: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI

Zusammenfassung

Große Sprachmodell-Agenten (LLM-Agenten) werden zunehmend weniger durch Veränderungen der Modellgewichte entwickelt als durch die Reorganisation ihrer Laufzeitumgebung. Fähigkeiten, die frühere Systeme dem Modell intern zutrauten, werden nun externalisiert – in Speichern, wiederverwendbaren Fähigkeiten, Interaktionsprotokollen und dem umgebenden Framework, das diese Module in der Praxis zuverlässig macht. Dieser Beitrag untersucht diesen Wandel aus der Perspektive der Externalisierung. Ausgehend vom Konzept der kognitiven Artefakte argumentieren wir, dass die Agenten-Infrastruktur nicht nur deshalb bedeutsam ist, weil sie Hilfskomponenten hinzufügt, sondern weil sie komplexe kognitive Lasten in Formen transformiert, die das Modell zuverlässiger bewältigen kann. Aus dieser Sicht externalisiert der Speicher Zustände über die Zeit, externalisieren Fähigkeiten prozedurales Wissen, externalisieren Protokolle die Interaktionsstruktur, und das Framework dient als Vereinheitlichungsebene, die diese zu kontrollierter Ausführung koordiniert. Wir zeichnen eine historische Entwicklung von Gewichten über Kontext zu Frameworks nach, analysieren Speicher, Fähigkeiten und Protokolle als drei distinkte, aber gekoppelte Formen der Externalisierung und untersuchen ihr Zusammenspiel innerhalb eines größeren Agentensystems. Des Weiteren diskutieren wir den Zielkonflikt zwischen parametrischen und externalisierten Fähigkeiten, identifizieren aufkommende Trends wie sich selbst weiterentwickelnde Frameworks und gemeinsame Agenten-Infrastrukturen und erörtern offene Herausforderungen in den Bereichen Evaluation, Steuerung und der langfristigen Ko-Evolution von Modellen und externer Infrastruktur. Das Ergebnis ist ein systemübergreifender Rahmen zur Erklärung, warum der praktische Fortschritt bei Agenten zunehmend nicht nur von leistungsfähigeren Modellen, sondern auch von besserer externer kognitiver Infrastruktur abhängt.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.
PDF331April 11, 2026