Externalisation dans les agents LLM : une revue unifiée de la mémoire, des compétences, des protocoles et de l'ingénierie de pilotage
Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering
April 9, 2026
Auteurs: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI
Résumé
Les agents de modèles de langage de grande taille (LLM) sont de plus en plus conçus non pas en modifiant les poids du modèle, mais en réorganisant leur environnement d'exécution. Les capacités que les systèmes précédents attendaient que le modèle développe en interne sont désormais externalisées dans des mémoires, des compétences réutilisables, des protocoles d'interaction et l'infrastructure logicielle qui rend ces modules fiables en pratique. Cet article examine cette transition sous l'angle de l'externalisation. En nous appuyant sur le concept d'artefacts cognitifs, nous soutenons que l'infrastructure des agents est importante non seulement parce qu'elle ajoute des composants auxiliaires, mais parce qu'elle transforme des charges cognitives complexes en des formes que le modèle peut résoudre plus fi ablement. Dans cette perspective, la mémoire externalise l'état dans le temps, les compétences externalisent l'expertise procédurale, les protocoles externalisent la structure d'interaction, et l'ingénierie de l'infrastructure logicielle sert de couche d'unification qui les coordonne en une exécution gouvernée. Nous retraçons une progression historique des poids au contexte, puis à l'infrastructure logicielle, analysons la mémoire, les compétences et les protocoles comme trois formes distinctes mais couplées d'externalisation, et examinons comment elles interagissent au sein d'un système d'agents plus vaste. Nous discutons en outre du compromis entre capacité paramétrique et capacité externalisée, identifions des tendances émergentes telles que les infrastructures auto-évolutives et les infrastructures d'agents partagées, et abordons les défis ouverts en matière d'évaluation, de gouvernance et de la coévolution à long terme des modèles et de l'infrastructure externe. Il en résulte un cadre systémique pour expliquer pourquoi les progrès pratiques des agents dépendent de plus en plus non seulement de modèles plus performants, mais aussi d'une meilleure infrastructure cognitive externe.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.