Esternalizzazione negli Agenti LLM: Una Rassegna Unificata di Memoria, Competenze, Protocolli e Ingegneria del Controllo
Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness Engineering
April 9, 2026
Autori: Chenyu Zhou, Huacan Chai, Wenteng Chen, Zihan Guo, Rong Shan, Yuanyi Song, Tianyi Xu, Yingxuan Yang, Aofan Yu, Weiming Zhang, Congming Zheng, Jiachen Zhu, Zeyu Zheng, Zhuosheng Zhang, Xingyu Lou, Changwang Zhang, Zhihui Fu, Jun Wang, Weiwen Liu, Jianghao Lin, Weinan Zhang
cs.AI
Abstract
Gli agenti basati su grandi modelli linguistici (LLM) sono sempre più sviluppati non tanto modificando i pesi del modello, quanto riorganizzando il runtime che li circonda. Capacità che i sistemi precedenti si aspettavano che il modello recuperasse internamente sono ora esternalizzate in memorie esterne, abilità riutilizzabili, protocolli di interazione e l'infrastruttura di controllo che rende questi moduli affidabili nella pratica. Questo articolo analizza tale cambiamento attraverso la lente dell'esternalizzazione. Ispirandoci al concetto di artefatti cognitivi, sosteniamo che l'infrastruttura degli agenti è importante non solo perché aggiunge componenti ausiliari, ma perché trasforma oneri cognitivi complessi in forme che il modello può risolvere in modo più affidabile. In questa visione, la memoria esternalizza lo stato nel tempo, le abilità esternalizzano la competenza procedurale, i protocolli esternalizzano la struttura d'interazione e l'ingegneria dell'infrastruttura funge da livello di unificazione che le coordina in un'esecuzione governata. Tracciamo una progressione storica dai pesi al contesto all'infrastruttura, analizziamo memoria, abilità e protocolli come tre forme distinte ma accoppiate di esternalizzazione ed esaminiamo come interagiscono all'interno di un sistema agente più ampio. Discutiamo inoltre il compromesso tra capacità parametriche ed esternalizzate, identifichiamo tendenze emergenti come infrastrutture auto-evolventi e infrastrutture condivise per agenti, e affrontiamo le sfide aperte in termini di valutazione, governance e co-evoluzione a lungo termine di modelli e infrastrutture esterne. Il risultato è un framework a livello di sistema per spiegare perché il progresso pratico degli agenti dipende sempre più non solo da modelli più potenti, ma da una migliore infrastruttura cognitiva esterna.
English
Large language model (LLM) agents are increasingly built less by changing model weights than by reorganizing the runtime around them. Capabilities that earlier systems expected the model to recover internally are now externalized into memory stores, reusable skills, interaction protocols, and the surrounding harness that makes these modules reliable in practice. This paper reviews that shift through the lens of externalization. Drawing on the idea of cognitive artifacts, we argue that agent infrastructure matters not merely because it adds auxiliary components, but because it transforms hard cognitive burdens into forms that the model can solve more reliably. Under this view, memory externalizes state across time, skills externalize procedural expertise, protocols externalize interaction structure, and harness engineering serves as the unification layer that coordinates them into governed execution. We trace a historical progression from weights to context to harness, analyze memory, skills, and protocols as three distinct but coupled forms of externalization, and examine how they interact inside a larger agent system. We further discuss the trade-off between parametric and externalized capability, identify emerging directions such as self-evolving harnesses and shared agent infrastructure, and discuss open challenges in evaluation, governance, and the long-term co-evolution of models and external infrastructure. The result is a systems-level framework for explaining why practical agent progress increasingly depends not only on stronger models, but on better external cognitive infrastructure.