GenericAgent: Токен-эффективный саморазвивающийся агент на основе больших языковых моделей за счет максимизации информационной плотности контекста (Версия 1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
Авторы: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
Аннотация
Агенты на основе больших языковых моделей (LLM), работающие в длительных горизонтах планирования, фундаментально ограничены контекстом. По мере увеличения продолжительности взаимодействий описания инструментов, извлеченные воспоминания и сырая обратная связь от среды накапливаются и вытесняют информацию, необходимую для принятия решений. В то же время полезный опыт, полученный при выполнении задач, часто теряется между эпизодами. Мы утверждаем, что производительность в длительных горизонтах определяется не длиной контекста, а тем, какой объем релевантной для принятия решений информации сохраняется в рамках ограниченного бюджета контекста. Мы представляем GenericAgent (GA) — универсальную саморазвивающуюся систему агентов LLM, построенную вокруг единственного принципа: максимизации информационной плотности контекста. GA реализует это через четыре тесно связанных компонента: минимальный атомарный набор инструментов, обеспечивающий простоту интерфейса; иерархическую память по требованию, которая по умолчанию отображает лишь небольшое высокоуровневое представление; механизм саморазвития, преобразующий проверенные прошлые траектории в переиспользуемые СОП (стандартные операционные процедуры) и исполняемый код; а также слой усечения и сжатия контекста, поддерживающий информационную плотность во время длительных исполнений. В задачах на завершение задач, эффективность использования инструментов, действенность памяти, саморазвитие и веб-серфинг GA стабильно превосходит ведущие системы агентов, используя при этом значительно меньше токенов и взаимодействий, и продолжает развиваться с течением времени. Проект: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent