LLM 에이전트의 외부화: 메모리, 기술, 프로토콜 및 활용 엔지니어링에 대한 통합적 고찰
Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering
April 9, 2026
저자: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI
초록
대규모 언어 모델(LLM) 에이전트는 점점 모델 가중치를 변경하는 방식보다는 이를 둘러싼 런타임을 재구성하는 방식으로 구축되고 있습니다. 이전 시스템들이 모델이 내부적으로 습득할 것으로 기대했던 능력들이 이제 메모리 저장소, 재사용 가능한 기술, 상호작용 프로토콜, 그리고 이러한 모듈들이 실제로 안정적으로 작동하도록 하는 주변 하네스로 외부화되고 있습니다. 본 논문은 이러한 전환을 외부화의 관점에서 검토합니다. 인지적 도구의 개념을 차용하여, 에이전트 인프라가 단순히 보조 구성 요소를 추가하기 때문이 아니라 어려운 인지적 부담을 모델이 더 안정적으로 해결할 수 있는 형태로 변환하기 때문에 중요하다고 주장합니다. 이러한 관점에서 메모리는 상태를 시간에 걸쳐 외부화하고, 기술은 절차적 전문성을 외부화하며, 프로토콜은 상호작용 구조를 외부화하고, 하네스 엔지니어링은 이를 통합하여 관리되는 실행으로 조정하는 통합 계층 역할을 합니다. 우리는 가중치에서 컨텍스트를 거쳐 하네스로 이어지는 역사적 진행 과정을 추적하고, 메모리, 기술, 프로토콜을 서로 구별되지만 결합된 세 가지 외부화 형태로 분석하며, 이들이 더 큰 에이전트 시스템 내부에서 어떻게 상호작용하는지 검토합니다. 더 나아가 매개변수화된 능력과 외부화된 능력 사이의 트레이드오프를 논의하고, 자기 진화 하네스와 공유 에이전트 인프라와 같은 새로운 방향을 제시하며, 평가, 거버넌스, 모델과 외부 인프라의 장기적 공진화에 대한 열린 과제를 논의합니다. 그 결과는 실용적인 에이전트의 발전이 점점 더 강력한 모델뿐만 아니라 더 나은 외부 인지 인프라에 의존하는 이유를 설명하는 시스템 수준의 프레임워크입니다.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.