ChatPaper.aiChatPaper

GenericAgent: Een Token-Efficiënte, Zelf-Evoluerende LLM-Agent via Contextuele Informatiedichtheid-Maximalisatie (V1.0)

GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)

April 18, 2026
Auteurs: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI

Samenvatting

Langetermijn-large language model (LLM)-agenten worden fundamenteel beperkt door de context. Naarmate interacties langer worden, hopen toolbeschrijvingen, opgehaalde herinneringen en ruime omgevingsfeedback zich op en verdringen ze de informatie die nodig is voor besluitvorming. Tegelijkertijd gaat waardevolle ervaring die wordt opgedaan bij taken vaak verloren tussen verschillende episodes. Wij stellen dat langetermijnprestaties niet worden bepaald door de contextlengte, maar door hoeveel besluitrelevante informatie wordt behouden binnen een beperkt contextbudget. Wij presenteren GenericAgent (GA), een algemeen, zelf-evoluerend LLM-agentsysteem dat is gebouwd rond één principe: maximalisatie van de contextinformatiedichtheid. GA implementeert dit via vier nauw verbonden componenten: een minimale atomische toolset die de interface eenvoudig houdt, een hiërarchisch geheugen op aanvraag dat standaard slechts een beperkt hoog-niveau overzicht toont, een zelf-evolutiemechanisme dat geverifieerde eerdere trajecten omzet in herbruikbare SOP's en uitvoerbare code, en een contextafkapping- en compressielaag die de informati
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent
PDF62April 22, 2026