Externalización en Agentes LLM: Una Revisión Unificada de Memoria, Habilidades, Protocolos e Ingeniería de Aprovechamiento
Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering
April 9, 2026
Autores: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI
Resumen
Los agentes de modelos de lenguaje grandes (LLM) se construyen cada vez menos modificando los pesos del modelo y más reorganizando el entorno de ejecución que los rodea. Las capacidades que los sistemas anteriores esperaban que el modelo recuperara internamente ahora se externalizan en almacenes de memoria, habilidades reutilizables, protocolos de interacción y el entorno de control que hace que estos módulos sean confiables en la práctica. Este artículo revisa ese cambio a través del lente de la externalización. Basándonos en la idea de los artefactos cognitivos, argumentamos que la infraestructura del agente es importante no solo porque añade componentes auxiliares, sino porque transforma cargas cognitivas complejas en formas que el modelo puede resolver con mayor fiabilidad. Bajo esta perspectiva, la memoria externaliza el estado a lo largo del tiempo, las habilidades externalizan la experiencia procedural, los protocolos externalizan la estructura de interacción y la ingeniería del entorno de control sirve como capa de unificación que los coordina en una ejecución gobernada. Trazamos una progresión histórica desde los pesos al contexto y al entorno de control, analizamos la memoria, las habilidades y los protocolos como tres formas distintas pero acopladas de externalización, y examinamos cómo interactúan dentro de un sistema de agentes más amplio. Además, discutimos la compensación entre la capacidad paramétrica y la externalizada, identificamos direcciones emergentes como los entornos de control de auto-evolución y la infraestructura de agentes compartida, y debatimos los desafíos abiertos en evaluación, gobernanza y la co-evolución a largo plazo de los modelos y la infraestructura externa. El resultado es un marco a nivel de sistemas para explicar por qué el progreso práctico de los agentes depende cada vez más no solo de modelos más potentes, sino de una mejor infraestructura cognitiva externa.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.