ChatPaper.aiChatPaper

Экстернализация в агентах больших языковых моделей: единый обзор памяти, навыков, протоколов и инженерии управления

Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering

April 9, 2026
Авторы: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI

Аннотация

Крупные языковые модели (LLM) как агенты все чаще создаются не столько за счет изменения весов модели, сколько путем реорганизации их runtime-окружения. Возможности, которые ранние системы ожидали от внутреннего восстановления моделью, теперь экстернализируются в хранилища памяти, переиспользуемые навыки, протоколы взаимодействия и управляющую оболочку, которая делает эти модули надежными на практике. Данная статья рассматривает этот сдвиг через призму экстернализации. Опираясь на концепцию когнитивных артефактов, мы утверждаем, что инфраструктура агентов важна не просто потому, что добавляет вспомогательные компоненты, а потому, что она преобразует сложные когнитивные нагрузки в формы, которые модель может решать более надежно. С этой точки зрения, память экстернализует состояние во времени, навыки экстернализуют процедурные знания, протоколы экстернализуют структуру взаимодействия, а разработка управляющей оболочки служит уровнем унификации, координирующим их в рамках управляемого выполнения. Мы прослеживаем историческую прогрессию от весов к контексту и далее к управляющей оболочке, анализируем память, навыки и протоколы как три различные, но связанные формы экстернализации и исследуем их взаимодействие внутри более крупной агентской системы. Мы также обсуждаем компромисс между параметрическими и экстернализованными возможностями, определяем emerging-направления, такие как саморазвивающиеся оболочки и общая агентская инфраструктура, и рассматриваем открытые проблемы в области оценки, управления и долгосрочной коэволюции моделей и внешней инфраструктуры. В результате предлагается системно-уровневая framework для объяснения, почему практический прогресс в области агентов все больше зависит не только от более мощных моделей, но и от лучшей внешней когнитивной инфраструктуры.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.
PDF331April 11, 2026