Agente Genérico: Un Agente de LLM Autoevolutivo Eficiente en Tokens mediante la Maximización de la Densidad de Información Contextual (V1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
Autores: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
Resumen
Los agentes de modelos de lenguaje grandes (LLM) de horizonte largo están fundamentalmente limitados por el contexto. A medida que las interacciones se alargan, las descripciones de herramientas, los recuerdos recuperados y la retroalimentación ambiental sin procesar se acumulan y desplazan la información necesaria para la toma de decisiones. Al mismo tiempo, la experiencia útil obtenida de las tareas a menudo se pierde entre episodios. Sostenemos que el rendimiento a largo plazo no está determinado por la longitud del contexto, sino por cuánta información relevante para la decisión se mantiene dentro de un presupuesto de contexto finito. Presentamos GenericAgent (GA), un sistema de agente LLM de propósito general y auto-evolutivo construido en torno a un único principio: la maximización de la densidad de información en el contexto. GA implementa esto a través de cuatro componentes estrechamente conectados: un conjunto de herramientas atómicas mínimas que mantiene la interfaz simple, una memoria jerárquica bajo demanda que solo muestra una vista general de alto nivel por defecto, un mecanismo de auto-evolución que convierte trayectorias pasadas verificadas en Procedimientos Operativos Estándar (SOP) reutilizables y código ejecutable, y una capa de truncamiento y compresión de contexto que mantiene la densidad de información durante ejecuciones largas. En finalización de tareas, eficiencia en el uso de herramientas, efectividad de la memoria, auto-evolución y navegación web, GA supera consistentemente a los principales sistemas de agentes mientras utiliza significativamente menos tokens e interacciones, y continúa evolucionando con el tiempo. Proyecto: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent