ChatPaper.aiChatPaper

ACON: 장기적 LLM 에이전트를 위한 컨텍스트 압축 최적화

ACON: Optimizing Context Compression for Long-horizon LLM Agents

October 1, 2025
저자: Minki Kang, Wei-Ning Chen, Dongge Han, Huseyin A. Inan, Lukas Wutschitz, Yanzhi Chen, Robert Sim, Saravan Rajmohan
cs.AI

초록

대형 언어 모델(LLM)은 점차 동적이고 실세계 환경에서 에이전트로 배치되며, 이러한 환경에서 성공을 위해서는 추론과 효과적인 도구 사용이 모두 필요합니다. 에이전트 작업의 주요 과제는 점점 증가하는 컨텍스트 길이로, 에이전트는 긴 행동 및 관찰 기록을 축적해야 합니다. 이러한 확장은 장기 작업에서 비용을 증가시키고 효율성을 감소시키지만, 기존의 컨텍스트 압축 연구는 주로 단일 단계 작업이나 좁은 응용 분야에 초점을 맞추었습니다. 본 연구에서는 환경 관찰 및 상호작용 기록을 간결하면서도 유익한 요약으로 최적으로 압축하는 통합 프레임워크인 에이전트 컨텍스트 최적화(ACON)를 소개합니다. ACON은 자연어 공간에서 압축 가이드라인 최적화를 활용합니다: 전체 컨텍스트는 성공하지만 압축된 컨텍스트는 실패하는 짝지어진 궤적이 주어지면, 능력 있는 LLM이 실패 원인을 분석하고 압축 가이드라인을 그에 따라 업데이트합니다. 또한, 최적화된 LLM 압축기를 더 작은 모델로 증류하여 추가 모듈의 오버헤드를 줄이는 방법을 제안합니다. AppWorld, OfficeBench, Multi-objective QA에서의 실험 결과, ACON은 메모리 사용량을 26-54%(피크 토큰) 감소시키면서도 작업 성능을 크게 유지하고, 더 작은 압축기로 증류할 때 95% 이상의 정확도를 유지하며, 최대 46%의 성능 향상으로 더 작은 LM을 장기 에이전트로 강화합니다.
English
Large language models (LLMs) are increasingly deployed as agents in dynamic, real-world environments, where success requires both reasoning and effective tool use. A central challenge for agentic tasks is the growing context length, as agents must accumulate long histories of actions and observations. This expansion raises costs and reduces efficiency in long-horizon tasks, yet prior work on context compression has mostly focused on single-step tasks or narrow applications. We introduce Agent Context Optimization (ACON), a unified framework that optimally compresses both environment observations and interaction histories into concise yet informative condensations. ACON leverages compression guideline optimization in natural language space: given paired trajectories where full context succeeds but compressed context fails, capable LLMs analyze the causes of failure, and the compression guideline is updated accordingly. Furthermore, we propose distilling the optimized LLM compressor into smaller models to reduce the overhead of the additional module. Experiments on AppWorld, OfficeBench, and Multi-objective QA show that ACON reduces memory usage by 26-54% (peak tokens) while largely preserving task performance, preserves over 95% of accuracy when distilled into smaller compressors, and enhances smaller LMs as long-horizon agents with up to 46% performance improvement.
PDF292October 2, 2025