Rumo a Agentes Eficientes: Memória, Aprendizado de Ferramentas e Planejamento
Toward Efficient Agents: Memory, Tool learning, and Planning
January 20, 2026
Autores: Xiaofang Yang, Lijun Li, Heng Zhou, Tong Zhu, Xiaoye Qu, Yuchen Fan, Qianshan Wei, Rui Ye, Li Kang, Yiran Qin, Zhiqiang Kou, Daizong Liu, Qi Li, Ning Ding, Siheng Chen, Jing Shao
cs.AI
Resumo
Nos últimos anos, tem havido um interesse crescente em estender os grandes modelos de linguagem para sistemas agentivos. Embora a eficácia dos agentes tenha continuado a melhorar, a eficiência, que é crucial para a implantação no mundo real, tem sido frequentemente negligenciada. Este artigo, portanto, investiga a eficiência a partir de três componentes centrais dos agentes: memória, aprendizagem de ferramentas e planeamento, considerando custos como latência, *tokens*, passos, etc. Com o objetivo de realizar uma pesquisa abrangente que aborde a eficiência do próprio sistema agentivo, revisamos uma ampla gama de abordagens recentes que diferem na implementação, mas frequentemente convergem para princípios de alto nível partilhados, incluindo, mas não se limitando a: limitar o contexto através de compressão e gestão, projetar recompensas de aprendizagem por reforço para minimizar a invocação de ferramentas e empregar mecanismos de busca controlada para melhorar a eficiência, os quais discutimos em detalhe. Consequentemente, caracterizamos a eficiência de duas formas complementares: comparando a eficácia sob um orçamento de custo fixo e comparando o custo num nível comparável de eficácia. Este equilíbrio também pode ser visto através da fronteira de Pareto entre eficácia e custo. Desta perspetiva, também examinamos *benchmarks* orientados para a eficiência, resumindo os protocolos de avaliação para estes componentes e consolidando as métricas de eficiência comumente reportadas, tanto em estudos de *benchmark* como metodológicos. Além disso, discutimos os principais desafios e direções futuras, com o objetivo de fornecer perspetivas promissoras.
English
Recent years have witnessed increasing interest in extending large language models into agentic systems. While the effectiveness of agents has continued to improve, efficiency, which is crucial for real-world deployment, has often been overlooked. This paper therefore investigates efficiency from three core components of agents: memory, tool learning, and planning, considering costs such as latency, tokens, steps, etc. Aimed at conducting comprehensive research addressing the efficiency of the agentic system itself, we review a broad range of recent approaches that differ in implementation yet frequently converge on shared high-level principles including but not limited to bounding context via compression and management, designing reinforcement learning rewards to minimize tool invocation, and employing controlled search mechanisms to enhance efficiency, which we discuss in detail. Accordingly, we characterize efficiency in two complementary ways: comparing effectiveness under a fixed cost budget, and comparing cost at a comparable level of effectiveness. This trade-off can also be viewed through the Pareto frontier between effectiveness and cost. From this perspective, we also examine efficiency oriented benchmarks by summarizing evaluation protocols for these components and consolidating commonly reported efficiency metrics from both benchmark and methodological studies. Moreover, we discuss the key challenges and future directions, with the goal of providing promising insights.