ACON: 長期視野のLLMエージェントのための文脈圧縮の最適化
ACON: Optimizing Context Compression for Long-horizon LLM Agents
October 1, 2025
著者: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI
要旨
大規模言語モデル(LLM)は、動的で現実世界の環境においてエージェントとしてますます展開されており、成功には推論と効果的なツール使用の両方が必要です。エージェントタスクにおける中心的な課題は、コンテキスト長の増加であり、エージェントは行動と観察の長い履歴を蓄積しなければなりません。この拡張は、長期的なタスクにおいてコストを増加させ効率を低下させますが、これまでのコンテキスト圧縮に関する研究は、主に単一ステップのタスクや限定的なアプリケーションに焦点を当ててきました。本論文では、環境観察と相互作用履歴の両方を簡潔でありながら情報量の多い凝縮に最適化する統一フレームワークであるAgent Context Optimization(ACON)を紹介します。ACONは、自然言語空間における圧縮ガイドライン最適化を活用します。完全なコンテキストでは成功するが圧縮されたコンテキストでは失敗するペアの軌跡が与えられた場合、能力のあるLLMが失敗の原因を分析し、それに応じて圧縮ガイドラインを更新します。さらに、最適化されたLLM圧縮器をより小さなモデルに蒸留して、追加モジュールのオーバーヘッドを削減することを提案します。AppWorld、OfficeBench、およびMulti-objective QAでの実験により、ACONがメモリ使用量を26-54%(ピークトークン)削減しながらタスク性能をほぼ維持し、より小さな圧縮器に蒸留した場合でも95%以上の精度を保持し、長期的なエージェントとしての小さなLMの性能を最大46%向上させることが示されました。
English
Large language models (LLMs) are increasingly deployed as agents in dynamic,
real-world environments, where success requires both reasoning and effective
tool use. A central challenge for agentic tasks is the growing context length,
as agents must accumulate long histories of actions and observations. This
expansion raises costs and reduces efficiency in long-horizon tasks, yet prior
work on context compression has mostly focused on single-step tasks or narrow
applications. We introduce Agent Context Optimization (ACON), a unified
framework that optimally compresses both environment observations and
interaction histories into concise yet informative condensations. ACON
leverages compression guideline optimization in natural language space: given
paired trajectories where full context succeeds but compressed context fails,
capable LLMs analyze the causes of failure, and the compression guideline is
updated accordingly. Furthermore, we propose distilling the optimized LLM
compressor into smaller models to reduce the overhead of the additional module.
Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON
reduces memory usage by 26-54% (peak tokens) while largely preserving task
performance, preserves over 95% of accuracy when distilled into smaller
compressors, and enhances smaller LMs as long-horizon agents with up to 46%
performance improvement.