LLMエージェントにおける外部化:記憶・スキル・プロトコル・ハーネス工学の統合的レビュー
Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering
April 9, 2026
著者: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI
要旨
大規模言語モデル(LLM)エージェントの構築は、モデル重みの変更よりも、その周囲のランタイムを再編成することで進化しつつある。従来のシステムがモデル内部での獲得を期待していた能力は、現在では記憶ストア、再利用可能なスキル、相互作用プロトコル、そしてこれらのモジュールを実践的に確実に機能させるハーネスへと外部化されている。本論文はこの転換を外部化という視点から考察する。認知的人工物の概念を援用し、エージェント基盤の重要性は単に補助的コンポーネントを追加するためではなく、困難な認知的負荷をモデルがより確実に解決できる形態へ変換する点にあると論じる。この見解によれば、記憶は状態を時間軸に沿って外部化し、スキルは手続き的専門知識を外部化し、プロトコルは相互作用構造を外部化し、ハーネス工学はこれらを調整して統制された実行に導く統合層として機能する。我々は、重みから文脈へ、そしてハーネスへという歴史的進展を辿り、記憶、スキル、プロトコルを、区別されながらも結合された三つの外部化形態として分析し、それらがより大規模なエージェントシステム内でどのように相互作用するかを検証する。さらに、パラメトリックな能力と外部化された能力の間のトレードオフを論じ、自己進化型ハーネスや共有エージェント基盤といった新興方向性を特定し、評価、ガバナンス、モデルと外部基盤の長期的共進化における未解決課題について議論する。その結果得られるのは、実用的なエージェントの進歩が、より強力なモデルだけでなく、より優れた外部認知基盤に依存度を増している理由を説明するシステムレベルでの枠組みである。
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.