GenericAgent: Un Agente LLM Auto-Evolvente ed Efficiente nei Token tramite la Massimizzazione della Densità Informativa Contestuale (V1.0)
GenericAgent: A Token-Efficient Self-Evolving LLM Agent via Contextual Information Density Maximization (V1.0)
April 18, 2026
Autori: Jiaqing Liang, Jinyi Han, Weijia Li, Xinyi Wang, Zhoujia Zhang, Zishang Jiang, Ying Liao, Tingyun Li, Ying Huang, Hao Shen, Hanyu Wu, Fang Guo, Keyi Wang, Zhonghua Hong, Zhiyu Lu, Lipeng Ma, Sihang Jiang, Yanghua Xiao
cs.AI
Abstract
Gli agenti basati su grandi modelli linguistici (LLM) per orizzonti lunghi sono fondamentalmente limitati dal contesto. Man mano che le interazioni si prolungano, le descrizioni degli strumenti, i ricordi recuperati e il feedback ambientale grezzo si accumulano e spingono fuori le informazioni necessarie per il processo decisionale. Allo stesso tempo, l'esperienza utile acquisita dai compiti viene spesso persa tra un episodio e l'altro. Sosteniamo che le prestazioni a lungo termine non siano determinate dalla lunghezza del contesto, ma da quanta informazione rilevante per le decisioni viene mantenuta all'interno di un budget di contesto finito. Presentiamo GenericAgent (GA), un sistema agente LLM generico e auto-evolutivo costruito attorno a un unico principio: la massimizzazione della densità informativa del contesto. GA implementa questo principio attraverso quattro componenti strettamente connessi: un set di strumenti atomici minimo che mantiene l'interfaccia semplice, una memoria gerarchica on-demand che per impostazione predefinita mostra solo una visuale di alto livello ridotta, un meccanismo di auto-evoluzione che trasforma traiettorie passate verificate in procedure operative standard (SOP) riutilizzabili e codice eseguibile, e un livello di troncamento e compressione del contesto che mantiene la densità informativa durante esecuzioni prolungate. In termini di completamento dei compiti, efficienza d'uso degli strumenti, efficacia della memoria, auto-evoluzione e navigazione web, GA supera costantemente i principali sistemi di agenti utilizzando significativamente meno token e interazioni, e continua ad evolversi nel tempo. Progetto: https://github.com/lsdefine/GenericAgent
English
Long-horizon large language model (LLM) agents are fundamentally limited by context. As interactions become longer, tool descriptions, retrieved memories, and raw environmental feedback accumulate and push out the information needed for decision-making. At the same time, useful experience gained from tasks is often lost across episodes. We argue that long-horizon performance is determined not by context length, but by how much decision-relevant information is maintained within a finite context budget. We present GenericAgent (GA), a general-purpose, self-evolving LLM agent system built around a single principle: context information density maximization. GA implements this through four closely connected components: a minimal atomic tool set that keeps the interface simple, a hierarchical on-demand memory that only shows a small high-level view by default, a self-evolution mechanism that turns verified past trajectories into reusable SOPs and executable code, and a context truncation and compression layer that maintains information density during long executions. Across task completion, tool use efficiency, memory effectiveness, self-evolution, and web browsing, GA consistently outperforms leading agent systems while using significantly fewer tokens and interactions, and it continues to evolve over time. Project: https://github.com/lsdefine/GenericAgent