ACON: Ottimizzazione della compressione del contesto per agenti LLM a lungo orizzonte
ACON: Optimizing Context Compression for Long-horizon LLM Agents
October 1, 2025
Autori: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI
Abstract
I grandi modelli linguistici (LLM) vengono sempre più impiegati come agenti in ambienti dinamici e reali, dove il successo richiede sia ragionamento che un uso efficace degli strumenti. Una sfida centrale per i compiti agentici è la crescente lunghezza del contesto, poiché gli agenti devono accumulare lunghe storie di azioni e osservazioni. Questa espansione aumenta i costi e riduce l'efficienza nei compiti a lungo termine, eppure i lavori precedenti sulla compressione del contesto si sono concentrati principalmente su compiti a singolo passaggio o applicazioni ristrette. Introduciamo l'Agent Context Optimization (ACON), un framework unificato che comprime in modo ottimale sia le osservazioni dell'ambiente che le storie di interazione in condensazioni concise ma informative. ACON sfrutta l'ottimizzazione delle linee guida di compressione nello spazio del linguaggio naturale: date traiettorie accoppiate in cui il contesto completo ha successo ma il contesto compresso fallisce, LLM capaci analizzano le cause del fallimento e la linea guida di compressione viene aggiornata di conseguenza. Inoltre, proponiamo di distillare il compressore LLM ottimizzato in modelli più piccoli per ridurre il sovraccarico del modulo aggiuntivo. Gli esperimenti su AppWorld, OfficeBench e Multi-objective QA dimostrano che ACON riduce l'uso della memoria del 26-54% (picco di token) preservando in gran parte le prestazioni del compito, mantiene oltre il 95% di accuratezza quando distillato in compressori più piccoli e migliora i modelli linguistici più piccoli come agenti a lungo termine con un miglioramento delle prestazioni fino al 46%.
English
Large language models (LLMs) are increasingly deployed as agents in dynamic,
real-world environments, where success requires both reasoning and effective
tool use. A central challenge for agentic tasks is the growing context length,
as agents must accumulate long histories of actions and observations. This
expansion raises costs and reduces efficiency in long-horizon tasks, yet prior
work on context compression has mostly focused on single-step tasks or narrow
applications. We introduce Agent Context Optimization (ACON), a unified
framework that optimally compresses both environment observations and
interaction histories into concise yet informative condensations. ACON
leverages compression guideline optimization in natural language space: given
paired trajectories where full context succeeds but compressed context fails,
capable LLMs analyze the causes of failure, and the compression guideline is
updated accordingly. Furthermore, we propose distilling the optimized LLM
compressor into smaller models to reduce the overhead of the additional module.
Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON
reduces memory usage by 26-54% (peak tokens) while largely preserving task
performance, preserves over 95% of accuracy when distilled into smaller
compressors, and enhances smaller LMs as long-horizon agents with up to 46%
performance improvement.