GenericAgent: 맥락 정보 밀도 극대화를 통한 토큰 효율적 자기 진화 LLM 에이전트 (V1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
저자: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
초록
장기적 목표를 수행하는 대규모 언어 모델(LLM) 에이전트는 근본적으로 컨텍스트(Context)에 의해 제한됩니다. 상호작용이 길어질수록 도구 설명, 검색된 메모리, 원시적인 환경 피드백이 누적되어 의사 결정에 필요한 정보가 밀려나게 됩니다. 동시에 작업을 통해 얻은 유용한 경험은 여러 에피소드에 걸쳐 흔히 소실됩니다. 우리는 장기적 성능이 컨텍스트 길이 자체가 아니라, 제한된 컨텍스트 예산 내에서 의사 결정에 관련된 정보가 얼마나 유지되느냐에 의해 결정된다고 주장합니다. 본 논문은 단일 원칙, 즉 컨텍스트 정보 밀도 극대화를 중심으로 구축된 범용 자기 진화 LLM 에이전트 시스템인 GenericAgent(GA)를 제시합니다. GA는 이를 밀접하게 연결된 네 가지 구성 요소를 통해 구현합니다: 인터페이스를 단순하게 유지하는 최소 단위 도구 집합, 기본적으로 소량의 높은 수준의 개요만 보여주는 계층적 주문형 메모리, 검증된 과거 실행 궤적을 재사용 가능한 표준 운영 절차(SOP)와 실행 코드로 전환하는 자기 진화 메커니즘, 그리고 장기 실행 중 정보 밀도를 유지하는 컨텍스트 생략 및 압축 계층이 그것입니다. 작업 완료, 도구 사용 효율, 메모리 효과성, 자기 진화, 웹 브라우징 전반에 걸쳐 GA는 상당히 적은 토큰과 상호작용을 사용하면서도 주요 에이전트 시스템들을 일관되게 능가하며, 시간이 지남에 따라 계속해서 진화합니다. 프로젝트: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent