GenericAgent: Ein token-effizienter, selbstentwickelnder KI-Agent durch Maximierung der kontextuellen Informationsdichte (V1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
Autoren: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
Zusammenfassung
Langfristig agierende Large Language Model (LLM)-Agenten sind grundlegend durch den Kontext begrenzt. Mit zunehmender Interaktionsdauer häufen sich Werkzeugbeschreibungen, abgerufene Erinnerungen und unverarbeitete Umgebungsrückmeldungen an und verdrängen die für Entscheidungsfindung benötigten Informationen. Gleichzeitig geht wertvolle, aus Aufgaben gewonnene Erfahrung häufig über verschiedene Episoden hinweg verloren. Wir vertreten die Auffassung, dass die langfristige Leistung nicht von der Kontextlänge bestimmt wird, sondern davon, wie viel entscheidungsrelevante Information innerhalb eines begrenzten Kontextbudgets erhalten bleibt. Wir stellen GenericAgent (GA) vor, ein universelles, sich selbst weiterentwickelndes LLM-Agentensystem, das auf einem einzigen Prinzip aufbaut: der Maximierung der Kontextinformationsdichte. GA setzt dies durch vier eng verbundene Komponenten um: einen minimalen atomaren Werkzeugsatz, der die Schnittstelle einfach hält, einen hierarchischen On-Demand-Speicher, der standardmäßig nur eine komprimierte Überblicksdarstellung zeigt, einen Selbstentwicklungsmechanismus, der verifizierte Vergangenheitstrajektorien in wiederverwendbare Standardarbeitsanweisungen (SOPs) und ausführbaren Code umwandelt, sowie eine Kontextkürzungs- und Komprimierungsschicht, die die Informationsdichte während langer Ausführungen aufrechterhält. Bei Aufgabenabschluss, Werkzeugeffizienz, Speichereffektivität, Selbstentwicklung und Web-Browsing übertrifft GA durchgängig führende Agentensysteme, verbraucht dabei deutlich weniger Tokens und Interaktionen und entwickelt sich kontinuierlich weiter. Projekt: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent