ChatPaper.aiChatPaper

GenericAgent: 文脈的情報密度最大化によるトークン効率の良い自己進化型大規模言語モデルエージェント(V1.0)

GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)

April 18, 2026
著者: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI

要旨

長期的な視野を持つ大規模言語モデル(LLM)エージェントは、本質的にコンテキストの制約を受けます。相互作用が長くなるにつれて、ツールの記述、検索された記憶、生の環境フィードバックが蓄積され、意思決定に必要な情報が押し出されてしまいます。同時に、タスクから得られた有用な経験は、エピソードを跨いで失われることが多いです。我々は、長期的な性能はコンテキスト長によって決まるのではなく、有限のコンテキスト予算内でどれだけ意思決定に関連する情報が維持されるかによって決まると主張します。本論文では、単一の原理、すなわち「コンテキスト情報密度の最大化」を中心に構築された、汎用性の高い自己進化型LLMエージェントシステムであるGenericAgent(GA)を提案します。GAはこれを、密接に連携する4つのコンポーネントを通じて実現します。(1) インターフェースをシンプルに保つ最小限の原子的ツールセット、(2) デフォルトでは小さな高レベルなビューのみを表示する階層的なオンデマンドメモリ、(3) 検証済みの過去の軌跡を再利用可能な標準作業手順(SOP)と実行可能コードに変換する自己進化メカニズム、(4) 長時間の実行中に情報密度を維持するコンテキストの切り詰めと圧縮層です。タスク完了率、ツール使用効率、メモリ効率、自己進化、ウェブ閲覧において、GAは主要なエージェントシステムを一貫して上回りながら、大幅に少ないトークン数と相互作用で動作し、時間とともに進化し続けます。プロジェクト:https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent
PDF62April 22, 2026