Le sandbox statiche sono inadeguate: la modellazione della complessità sociale richiede una co-evoluzione aperta nelle simulazioni multi-agente basate su LLM.
Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations
October 15, 2025
Autori: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI
Abstract
E se gli agenti artificiali non solo potessero comunicare, ma anche evolversi, adattarsi e rimodellare i loro mondi in modi che non possiamo pienamente prevedere? Con i modelli linguistici avanzati (LLM) che ora alimentano sistemi multi-agente e simulazioni sociali, stiamo assistendo a nuove possibilità per modellare ambienti aperti e in continua evoluzione. Tuttavia, la maggior parte delle simulazioni attuali rimane confinata entro sandbox statiche, caratterizzate da compiti predefiniti, dinamiche limitate e criteri di valutazione rigidi. Queste limitazioni impediscono loro di catturare la complessità delle società reali. In questo articolo, sosteniamo che i benchmark statici e specifici per compiti sono fondamentalmente inadeguati e devono essere ripensati. Esaminiamo criticamente le architetture emergenti che combinano LLM con dinamiche multi-agente, evidenziando ostacoli chiave come bilanciare stabilità e diversità, valutare comportamenti imprevisti e scalare verso una maggiore complessità, e introduciamo una nuova tassonomia per questo campo in rapida evoluzione. Infine, presentiamo una roadmap di ricerca incentrata sull'apertura, la co-evoluzione continua e lo sviluppo di ecosistemi di IA resilienti e socialmente allineati. Invitiamo la comunità a superare i paradigmi statici e a contribuire a plasmare la prossima generazione di simulazioni multi-agente adattive e socialmente consapevoli.
English
What if artificial agents could not just communicate, but also evolve, adapt,
and reshape their worlds in ways we cannot fully predict? With llm now powering
multi-agent systems and social simulations, we are witnessing new possibilities
for modeling open-ended, ever-changing environments. Yet, most current
simulations remain constrained within static sandboxes, characterized by
predefined tasks, limited dynamics, and rigid evaluation criteria. These
limitations prevent them from capturing the complexity of real-world societies.
In this paper, we argue that static, task-specific benchmarks are fundamentally
inadequate and must be rethought. We critically review emerging architectures
that blend llm with multi-agent dynamics, highlight key hurdles such as
balancing stability and diversity, evaluating unexpected behaviors, and scaling
to greater complexity, and introduce a fresh taxonomy for this rapidly evolving
field. Finally, we present a research roadmap centered on open-endedness,
continuous co-evolution, and the development of resilient, socially aligned AI
ecosystems. We call on the community to move beyond static paradigms and help
shape the next generation of adaptive, socially-aware multi-agent simulations.