ACON: Оптимизация сжатия контекста для долгосрочных агентов на основе языковых моделей
ACON: Optimizing Context Compression for Long-horizon LLM Agents
October 1, 2025
Авторы: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI
Аннотация
Крупные языковые модели (LLM) всё чаще используются в качестве агентов в динамичных, реальных условиях, где успех требует как способности к рассуждению, так и эффективного использования инструментов. Одной из ключевых проблем для задач, связанных с агентами, является увеличение длины контекста, поскольку агенты должны накапливать длинные истории действий и наблюдений. Это расширение увеличивает затраты и снижает эффективность в задачах с длительным горизонтом, однако предыдущие работы по сжатию контекста в основном были сосредоточены на одношаговых задачах или узких приложениях. Мы представляем Оптимизацию Контекста Агента (ACON), унифицированную структуру, которая оптимально сжимает как наблюдения среды, так и истории взаимодействий в краткие, но информативные сводки. ACON использует оптимизацию руководящих принципов сжатия в пространстве естественного языка: при наличии парных траекторий, где полный контекст приводит к успеху, а сжатый контекст — к неудаче, мощные LLM анализируют причины неудач, и руководящие принципы сжатия обновляются соответствующим образом. Кроме того, мы предлагаем дистиллировать оптимизированный компрессор LLM в более мелкие модели, чтобы снизить накладные расходы на дополнительный модуль. Эксперименты на AppWorld, OfficeBench и Multi-objective QA показывают, что ACON снижает использование памяти на 26–54% (пиковые токены), при этом в значительной степени сохраняя производительность задач, сохраняет более 95% точности при дистилляции в более мелкие компрессоры и улучшает производительность более мелких языковых моделей в качестве агентов с длительным горизонтом, достигая улучшения до 46%.
English
Large language models (LLMs) are increasingly deployed as agents in dynamic,
real-world environments, where success requires both reasoning and effective
tool use. A central challenge for agentic tasks is the growing context length,
as agents must accumulate long histories of actions and observations. This
expansion raises costs and reduces efficiency in long-horizon tasks, yet prior
work on context compression has mostly focused on single-step tasks or narrow
applications. We introduce Agent Context Optimization (ACON), a unified
framework that optimally compresses both environment observations and
interaction histories into concise yet informative condensations. ACON
leverages compression guideline optimization in natural language space: given
paired trajectories where full context succeeds but compressed context fails,
capable LLMs analyze the causes of failure, and the compression guideline is
updated accordingly. Furthermore, we propose distilling the optimized LLM
compressor into smaller models to reduce the overhead of the additional module.
Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON
reduces memory usage by 26-54% (peak tokens) while largely preserving task
performance, preserves over 95% of accuracy when distilled into smaller
compressors, and enhances smaller LMs as long-horizon agents with up to 46%
performance improvement.