ChatPaper.aiChatPaper

ACON: Optimalisatie van Contextcompressie voor Langetermijn-LLM-Agenten

ACON: Optimizing Context Compression for Long-horizon LLM Agents

October 1, 2025
Auteurs: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI

Samenvatting

Grote taalmmodellen (LLMs) worden steeds vaker ingezet als agenten in dynamische, real-world omgevingen, waar succes zowel redeneren als effectief gebruik van tools vereist. Een centrale uitdaging voor agentische taken is de groeiende contextlengte, aangezien agenten lange geschiedenissen van acties en observaties moeten accumuleren. Deze uitbreiding verhoogt de kosten en vermindert de efficiëntie bij taken met een lange horizon, terwijl eerder werk over contextcompressie zich vooral richtte op taken met één stap of beperkte toepassingen. Wij introduceren Agent Context Optimization (ACON), een uniform raamwerk dat zowel omgevingsobservaties als interactiegeschiedenissen optimaal comprimeert tot beknopte maar informatieve samenvattingen. ACON maakt gebruik van optimalisatie van compressierichtlijnen in de natuurlijke taalruimte: gegeven gepaarde trajecten waarbij volledige context slaagt maar gecomprimeerde context faalt, analyseren capabele LLMs de oorzaken van het falen, en wordt de compressierichtlijn dienovereenkomstig bijgewerkt. Bovendien stellen we voor om de geoptimaliseerde LLM-compressor te destilleren in kleinere modellen om de overhead van de aanvullende module te verminderen. Experimenten op AppWorld, OfficeBench en Multi-objective QA tonen aan dat ACON het geheugengebruik met 26-54% (piektokens) vermindert terwijl de taakprestaties grotendeels behouden blijven, meer dan 95% van de nauwkeurigheid behoudt wanneer het wordt gedestilleerd in kleinere compressors, en kleinere LM's versterkt als agenten met een lange horizon met een prestatieverbetering tot 46%.
English
Large language models (LLMs) are increasingly deployed as agents in dynamic, real-world environments, where success requires both reasoning and effective tool use. A central challenge for agentic tasks is the growing context length, as agents must accumulate long histories of actions and observations. This expansion raises costs and reduces efficiency in long-horizon tasks, yet prior work on context compression has mostly focused on single-step tasks or narrow applications. We introduce Agent Context Optimization (ACON), a unified framework that optimally compresses both environment observations and interaction histories into concise yet informative condensations. ACON leverages compression guideline optimization in natural language space: given paired trajectories where full context succeeds but compressed context fails, capable LLMs analyze the causes of failure, and the compression guideline is updated accordingly. Furthermore, we propose distilling the optimized LLM compressor into smaller models to reduce the overhead of the additional module. Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON reduces memory usage by 26-54% (peak tokens) while largely preserving task performance, preserves over 95% of accuracy when distilled into smaller compressors, and enhances smaller LMs as long-horizon agents with up to 46% performance improvement.
PDF302October 2, 2025