ChatPaper.aiChatPaper

¿Escalar equipos o escalar tiempo? Aprendizaje continuo habilitado por memoria en sistemas multiagente de LLM

Scaling Teams or Scaling Time? Memory Enabled Lifelong Learning in LLM Multi-Agent Systems

March 27, 2026
Autores: Shanglin Wu, Yuyang Luo, Yueqing Liang, Kaiwen Shi, Yanfang Ye, Ali Payani, Kai Shu
cs.AI

Resumen

Los sistemas multiagente de modelos de lenguaje grande (LLM) pueden escalar en dos dimensiones distintas: aumentando el número de agentes y mejorando mediante la experiencia acumulada a lo largo del tiempo. Aunque trabajos previos han estudiado estas dimensiones por separado, su interacción bajo restricciones de costos realistas sigue sin estar clara. En este artículo, presentamos una visión conceptual del escalado de sistemas multiagente que considera conjuntamente el tamaño del equipo y la capacidad de aprendizaje continuo, y estudiamos cómo el diseño de la memoria comparte este panorama. Con este fin, proponemos LLMA-Mem, un marco de memoria de aprendizaje continuo para sistemas multiagente de LLM bajo topologías de memoria flexibles. Evaluamos LLMA-Mem en MultiAgentBench a través de entornos de programación, investigación y bases de datos. Empíricamente, LLMA-Mem mejora consistentemente el rendimiento a largo plazo en comparación con los sistemas de referencia, al tiempo que reduce el costo. Nuestro análisis revela además un panorama de escalado no monótono: los equipos más grandes no siempre producen un mejor rendimiento a largo plazo, y los equipos más pequeños pueden superar a los más grandes cuando la memoria respalda mejor la reutilización de la experiencia. Estos hallazgos posicionan el diseño de la memoria como una vía práctica para escalar sistemas multiagente de manera más efectiva y eficiente con el tiempo.
English
Large language model (LLM) multi-agent systems can scale along two distinct dimensions: by increasing the number of agents and by improving through accumulated experience over time. Although prior work has studied these dimensions separately, their interaction under realistic cost constraints remains unclear. In this paper, we introduce a conceptual scaling view of multi-agent systems that jointly considers team size and lifelong learning ability, and we study how memory design shares this landscape. To this end, we propose LLMA-Mem, a lifelong memory framework for LLM multi-agent systems under flexible memory topologies. We evaluate LLMA-Mem on MultiAgentBench across coding, research, and database environments. Empirically, LLMA-Mem consistently improves long-horizon performance over baselines while reducing cost. Our analysis further reveals a non-monotonic scaling landscape: larger teams do not always produce better long-term performance, and smaller teams can outperform larger ones when memory better supports the reuse of experience. These findings position memory design as a practical path for scaling multi-agent systems more effectively and more efficiently over time.
PDF11April 8, 2026