ChatPaper.aiChatPaper

Statische Sandkästen sind unzureichend: Die Modellierung gesellschaftlicher Komplexität erfordert offene Ko-Evolution in LLM-basierten Multi-Agenten-Simulationen.

Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations

October 15, 2025
papers.authors: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI

papers.abstract

Was wäre, wenn künstliche Agenten nicht nur kommunizieren, sondern auch evolvieren, sich anpassen und ihre Welten auf unvorhersehbare Weise umgestalten könnten? Mit der Nutzung von LLM (Large Language Models) in Multi-Agenten-Systemen und sozialen Simulationen eröffnen sich neue Möglichkeiten zur Modellierung offener, sich ständig verändernder Umgebungen. Dennoch bleiben die meisten aktuellen Simulationen in statischen Sandkästen gefangen, die durch vordefinierte Aufgaben, begrenzte Dynamiken und starre Bewertungskriterien gekennzeichnet sind. Diese Einschränkungen verhindern, dass sie die Komplexität realer Gesellschaften erfassen können. In diesem Papier argumentieren wir, dass statische, aufgabenbezogene Benchmarks grundsätzlich unzureichend sind und neu überdacht werden müssen. Wir untersuchen kritisch aufkommende Architekturen, die LLM mit Multi-Agenten-Dynamiken verbinden, beleuchten zentrale Herausforderungen wie die Balance zwischen Stabilität und Diversität, die Bewertung unerwarteter Verhaltensweisen und die Skalierung hin zu größerer Komplexität, und führen eine neue Taxonomie für dieses sich schnell entwickelnde Feld ein. Schließlich präsentieren wir einen Forschungsfahrplan, der auf Offenheit, kontinuierliche Ko-Evolution und die Entwicklung widerstandsfähiger, sozial ausgerichteter KI-Ökosysteme abzielt. Wir rufen die Gemeinschaft dazu auf, statische Paradigmen zu überwinden und die nächste Generation adaptiver, sozial bewusster Multi-Agenten-Simulationen mitzugestalten.
English
What if artificial agents could not just communicate, but also evolve, adapt, and reshape their worlds in ways we cannot fully predict? With llm now powering multi-agent systems and social simulations, we are witnessing new possibilities for modeling open-ended, ever-changing environments. Yet, most current simulations remain constrained within static sandboxes, characterized by predefined tasks, limited dynamics, and rigid evaluation criteria. These limitations prevent them from capturing the complexity of real-world societies. In this paper, we argue that static, task-specific benchmarks are fundamentally inadequate and must be rethought. We critically review emerging architectures that blend llm with multi-agent dynamics, highlight key hurdles such as balancing stability and diversity, evaluating unexpected behaviors, and scaling to greater complexity, and introduce a fresh taxonomy for this rapidly evolving field. Finally, we present a research roadmap centered on open-endedness, continuous co-evolution, and the development of resilient, socially aligned AI ecosystems. We call on the community to move beyond static paradigms and help shape the next generation of adaptive, socially-aware multi-agent simulations.
PDF12October 22, 2025