ChatPaper.aiChatPaper

ACON: 長期視野のLLMエージェントのための文脈圧縮の最適化

ACON: Optimizing Context Compression for Long-horizon LLM Agents

October 1, 2025
著者: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI

要旨

大規模言語モデル(LLM)は、動的で現実世界の環境においてエージェントとしてますます展開されており、成功には推論と効果的なツール使用の両方が必要です。エージェントタスクにおける中心的な課題は、コンテキスト長の増加であり、エージェントは行動と観察の長い履歴を蓄積しなければなりません。この拡張は、長期的なタスクにおいてコストを増加させ効率を低下させますが、これまでのコンテキスト圧縮に関する研究は、主に単一ステップのタスクや限定的なアプリケーションに焦点を当ててきました。本論文では、環境観察と相互作用履歴の両方を簡潔でありながら情報量の多い凝縮に最適化する統一フレームワークであるAgent Context Optimization(ACON)を紹介します。ACONは、自然言語空間における圧縮ガイドライン最適化を活用します。完全なコンテキストでは成功するが圧縮されたコンテキストでは失敗するペアの軌跡が与えられた場合、能力のあるLLMが失敗の原因を分析し、それに応じて圧縮ガイドラインを更新します。さらに、最適化されたLLM圧縮器をより小さなモデルに蒸留して、追加モジュールのオーバーヘッドを削減することを提案します。AppWorld、OfficeBench、およびMulti-objective QAでの実験により、ACONがメモリ使用量を26-54%(ピークトークン)削減しながらタスク性能をほぼ維持し、より小さな圧縮器に蒸留した場合でも95%以上の精度を保持し、長期的なエージェントとしての小さなLMの性能を最大46%向上させることが示されました。
English
Large language models (LLMs) are increasingly deployed as agents in dynamic, real-world environments, where success requires both reasoning and effective tool use. A central challenge for agentic tasks is the growing context length, as agents must accumulate long histories of actions and observations. This expansion raises costs and reduces efficiency in long-horizon tasks, yet prior work on context compression has mostly focused on single-step tasks or narrow applications. We introduce Agent Context Optimization (ACON), a unified framework that optimally compresses both environment observations and interaction histories into concise yet informative condensations. ACON leverages compression guideline optimization in natural language space: given paired trajectories where full context succeeds but compressed context fails, capable LLMs analyze the causes of failure, and the compression guideline is updated accordingly. Furthermore, we propose distilling the optimized LLM compressor into smaller models to reduce the overhead of the additional module. Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON reduces memory usage by 26-54% (peak tokens) while largely preserving task performance, preserves over 95% of accuracy when distilled into smaller compressors, and enhances smaller LMs as long-horizon agents with up to 46% performance improvement.
PDF292October 2, 2025