ChatPaper.aiChatPaper

Scalare Team o Scalare Tempo? Apprendimento Permanente Abilitato dalla Memoria nei Sistemi Multi-Agente basati su LLM

Scaling Teams or Scaling Time? Memory Enabled Lifelong Learning in LLM Multi-Agent Systems

March 27, 2026
Autori: Shanglin Wu, Yuyang Luo, Yueqing Liang, Kaiwen Shi, Yanfang Ye, Ali Payani, Kai Shu
cs.AI

Abstract

I sistemi multi-agente basati su grandi modelli linguistici (LLM) possono scalare lungo due dimensioni distinte: aumentando il numero di agenti e migliorando attraverso l'esperienza accumulata nel tempo. Sebbene lavori precedenti abbiano studiato queste dimensioni separatamente, la loro interazione sotto vincoli di costo realistici rimane poco chiara. In questo articolo, introduciamo una visione concettuale della scalabilità dei sistemi multi-agente che considera congiuntamente la dimensione del team e la capacità di apprendimento continuo, e studiamo come la progettazione della memoria condivida questo panorama. A tal fine, proponiamo LLMA-Mem, un framework di memoria a lungo termine per sistemi multi-agente LLM basato su topologie di memoria flessibili. Valutiamo LLMA-Mem su MultiAgentBench in ambienti di programmazione, ricerca e database. Empiricamente, LLMA-Mem migliora costantemente le prestazioni a lungo termine rispetto ai baseline, riducendo al contempo i costi. La nostra analisi rivela inoltre un panorama di scalabilità non monotono: team più numerosi non producono sempre prestazioni migliori a lungo termine, e team più piccoli possono superare quelli più grandi quando la memoria supporta meglio il riutilizzo dell'esperienza. Questi risultati posizionano la progettazione della memoria come un percorso pratico per scalare i sistemi multi-agente in modo più efficace ed efficiente nel tempo.
English
Large language model (LLM) multi-agent systems can scale along two distinct dimensions: by increasing the number of agents and by improving through accumulated experience over time. Although prior work has studied these dimensions separately, their interaction under realistic cost constraints remains unclear. In this paper, we introduce a conceptual scaling view of multi-agent systems that jointly considers team size and lifelong learning ability, and we study how memory design shares this landscape. To this end, we propose LLMA-Mem, a lifelong memory framework for LLM multi-agent systems under flexible memory topologies. We evaluate LLMA-Mem on MultiAgentBench across coding, research, and database environments. Empirically, LLMA-Mem consistently improves long-horizon performance over baselines while reducing cost. Our analysis further reveals a non-monotonic scaling landscape: larger teams do not always produce better long-term performance, and smaller teams can outperform larger ones when memory better supports the reuse of experience. These findings position memory design as a practical path for scaling multi-agent systems more effectively and more efficiently over time.
PDF11April 8, 2026