Statische Sandkästen sind unzureichend: Die Modellierung gesellschaftlicher Komplexität erfordert offene Ko-Evolution in LLM-basierten Multi-Agenten-Simulationen.
Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations
October 15, 2025
papers.authors: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI
papers.abstract
Was wäre, wenn künstliche Agenten nicht nur kommunizieren, sondern auch evolvieren, sich anpassen und ihre Welten auf unvorhersehbare Weise umgestalten könnten? Mit der Nutzung von LLM (Large Language Models) in Multi-Agenten-Systemen und sozialen Simulationen eröffnen sich neue Möglichkeiten zur Modellierung offener, sich ständig verändernder Umgebungen. Dennoch bleiben die meisten aktuellen Simulationen in statischen Sandkästen gefangen, die durch vordefinierte Aufgaben, begrenzte Dynamiken und starre Bewertungskriterien gekennzeichnet sind. Diese Einschränkungen verhindern, dass sie die Komplexität realer Gesellschaften erfassen können. In diesem Papier argumentieren wir, dass statische, aufgabenbezogene Benchmarks grundsätzlich unzureichend sind und neu überdacht werden müssen. Wir untersuchen kritisch aufkommende Architekturen, die LLM mit Multi-Agenten-Dynamiken verbinden, beleuchten zentrale Herausforderungen wie die Balance zwischen Stabilität und Diversität, die Bewertung unerwarteter Verhaltensweisen und die Skalierung hin zu größerer Komplexität, und führen eine neue Taxonomie für dieses sich schnell entwickelnde Feld ein. Schließlich präsentieren wir einen Forschungsfahrplan, der auf Offenheit, kontinuierliche Ko-Evolution und die Entwicklung widerstandsfähiger, sozial ausgerichteter KI-Ökosysteme abzielt. Wir rufen die Gemeinschaft dazu auf, statische Paradigmen zu überwinden und die nächste Generation adaptiver, sozial bewusster Multi-Agenten-Simulationen mitzugestalten.
English
What if artificial agents could not just communicate, but also evolve, adapt,
and reshape their worlds in ways we cannot fully predict? With llm now powering
multi-agent systems and social simulations, we are witnessing new possibilities
for modeling open-ended, ever-changing environments. Yet, most current
simulations remain constrained within static sandboxes, characterized by
predefined tasks, limited dynamics, and rigid evaluation criteria. These
limitations prevent them from capturing the complexity of real-world societies.
In this paper, we argue that static, task-specific benchmarks are fundamentally
inadequate and must be rethought. We critically review emerging architectures
that blend llm with multi-agent dynamics, highlight key hurdles such as
balancing stability and diversity, evaluating unexpected behaviors, and scaling
to greater complexity, and introduce a fresh taxonomy for this rapidly evolving
field. Finally, we present a research roadmap centered on open-endedness,
continuous co-evolution, and the development of resilient, socially aligned AI
ecosystems. We call on the community to move beyond static paradigms and help
shape the next generation of adaptive, socially-aware multi-agent simulations.