Les bacs à sable statiques sont insuffisants : modéliser la complexité sociétale nécessite une co-évolution ouverte dans les simulations multi-agents basées sur les modèles de langage (LLM).
Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations
October 15, 2025
papers.authors: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI
papers.abstract
Et si les agents artificiels pouvaient non seulement communiquer, mais aussi évoluer, s’adapter et remodeler leurs mondes de manière imprévisible ? Avec les modèles de langage (LLM) alimentant désormais les systèmes multi-agents et les simulations sociales, nous assistons à l’émergence de nouvelles possibilités pour modéliser des environnements ouverts et en constante évolution. Pourtant, la plupart des simulations actuelles restent confinées à des cadres statiques, caractérisés par des tâches prédéfinies, des dynamiques limitées et des critères d’évaluation rigides. Ces limitations les empêchent de saisir la complexité des sociétés réelles. Dans cet article, nous soutenons que les benchmarks statiques et spécifiques à une tâche sont fondamentalement inadéquats et doivent être repensés. Nous examinons de manière critique les architectures émergentes qui intègrent les LLM aux dynamiques multi-agents, mettons en lumière des défis clés tels que l’équilibre entre stabilité et diversité, l’évaluation des comportements imprévus et la montée en complexité, et proposons une nouvelle taxonomie pour ce domaine en évolution rapide. Enfin, nous présentons une feuille de route de recherche axée sur l’ouverture, la co-évolution continue et le développement d’écosystèmes d’IA résilients et socialement alignés. Nous appelons la communauté à dépasser les paradigmes statiques et à contribuer à façonner la prochaine génération de simulations multi-agents adaptatives et socialement conscientes.
English
What if artificial agents could not just communicate, but also evolve, adapt,
and reshape their worlds in ways we cannot fully predict? With llm now powering
multi-agent systems and social simulations, we are witnessing new possibilities
for modeling open-ended, ever-changing environments. Yet, most current
simulations remain constrained within static sandboxes, characterized by
predefined tasks, limited dynamics, and rigid evaluation criteria. These
limitations prevent them from capturing the complexity of real-world societies.
In this paper, we argue that static, task-specific benchmarks are fundamentally
inadequate and must be rethought. We critically review emerging architectures
that blend llm with multi-agent dynamics, highlight key hurdles such as
balancing stability and diversity, evaluating unexpected behaviors, and scaling
to greater complexity, and introduce a fresh taxonomy for this rapidly evolving
field. Finally, we present a research roadmap centered on open-endedness,
continuous co-evolution, and the development of resilient, socially aligned AI
ecosystems. We call on the community to move beyond static paradigms and help
shape the next generation of adaptive, socially-aware multi-agent simulations.