GenericAgent : Un agent LLM auto-évolutif économe en tokens via la maximisation de la densité informationnelle contextuelle (V1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
Auteurs: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
Résumé
Les agents de modèles de langage de grande échelle (LLM) à long horizon sont fondamentalement limités par le contexte. À mesure que les interactions s'allongent, les descriptions d'outils, les souvenirs récupérés et les retours bruts de l'environnement s'accumulent et évacuent les informations nécessaires à la prise de décision. Parallèlement, l'expérience utile acquise lors des tâches est souvent perdue d'un épisode à l'autre. Nous soutenons que les performances à long horizon ne sont pas déterminées par la longueur du contexte, mais par la quantité d'informations pertinentes pour la décision maintenues dans un budget de contexte fini. Nous présentons GenericAgent (GA), un système d'agent LLM polyvalent et auto-évolutif construit autour d'un principe unique : la maximisation de la densité informationnelle du contexte. GA met en œuvre ce principe grâce à quatre composants étroitement connectés : un ensemble d'outils atomiques minimaux qui garde l'interface simple, une mémoire hiérarchique à la demande qui ne montre par défaut qu'une vue générale de haut niveau, un mécanisme d'auto-évolution qui transforme les trajectoires passées vérifiées en procédures opérationnelles standardisées (POS) réutilisables et en code exécutable, et une couche de troncation et compression du contexte qui maintient la densité informationnelle lors des longues exécutions. En matière d'accomplissement des tâches, d'efficacité d'utilisation des outils, d'efficacité de la mémoire, d'auto-évolution et de navigation web, GA surpasse constamment les principaux systèmes d'agents tout en utilisant nettement moins de tokens et d'interactions, et il continue d'évoluer dans le temps. Projet : https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent