ChatPaper.aiChatPaper

Agente Genérico: Um Agente de LLM Autoevolutivo com Eficiência de Tokens via Maximização da Densidade Informacional Contextual (V1.0)

GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)

April 18, 2026
Autores: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI

Resumo

Os agentes de LLM (Large Language Model) de longo horizonte são fundamentalmente limitados pelo contexto. À medida que as interações se tornam mais longas, as descrições de ferramentas, as memórias recuperadas e o feedback ambiental bruto acumulam-se e excluem as informações necessárias para a tomada de decisões. Simultaneamente, a experiência útil obtida nas tarefas é frequentemente perdida entre episódios. Argumentamos que o desempenho de longo horizonte não é determinado pelo comprimento do contexto, mas pela quantidade de informações relevantes para a decisão que são mantidas dentro de um orçamento de contexto finito. Apresentamos o GenericAgent (GA), um sistema de agente LLM de propósito geral e auto-evolutivo construído em torno de um único princípio: a maximização da densidade de informação no contexto. O GA implementa isso através de quatro componentes intimamente conectados: um conjunto mínimo de ferramentas atômicas que mantém a interface simples, uma memória hierárquica sob demanda que mostra apenas uma visão geral de alto nível por padrão, um mecanismo de auto-evolução que transforma trajetórias passadas verificadas em POPs (Procedimentos Operacionais Padrão) reutilizáveis e código executável, e uma camada de truncamento e compressão de contexto que mantém a densidade de informação durante execuções longas. Em tarefas de conclusão, eficiência no uso de ferramentas, eficácia da memória, auto-evolução e navegação na web, o GA supera consistentemente os principais sistemas de agentes, utilizando significativamente menos tokens e interações, e continua a evoluir ao longo do tempo. Projeto: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent
PDF62April 22, 2026