Статические песочницы недостаточны: моделирование социальной сложности требует открытой коэволюции в многоагентных симуляциях на основе языковых моделей.
Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations
October 15, 2025
Авторы: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI
Аннотация
Что, если искусственные агенты могли бы не только общаться, но также эволюционировать, адаптироваться и преобразовывать свои миры способами, которые мы не можем полностью предсказать? С появлением llm, питающих многоагентные системы и социальные симуляции, мы наблюдаем новые возможности для моделирования открытых, постоянно изменяющихся сред. Однако большинство современных симуляций остаются ограниченными статичными "песочницами", характеризующимися предопределенными задачами, ограниченной динамикой и жесткими критериями оценки. Эти ограничения не позволяют им охватить сложность реальных обществ. В этой статье мы утверждаем, что статические, узкоспециализированные бенчмарки принципиально неадекватны и должны быть переосмыслены. Мы критически рассматриваем появляющиеся архитектуры, сочетающие llm с многоагентной динамикой, выделяем ключевые препятствия, такие как баланс между стабильностью и разнообразием, оценка неожиданного поведения и масштабирование до большей сложности, а также представляем новую таксономию для этой быстро развивающейся области. Наконец, мы предлагаем исследовательскую дорожную карту, сосредоточенную на открытости, непрерывной коэволюции и создании устойчивых, социально ориентированных экосистем ИИ. Мы призываем сообщество выйти за рамки статических парадигм и помочь сформировать следующее поколение адаптивных, социально осознанных многоагентных симуляций.
English
What if artificial agents could not just communicate, but also evolve, adapt,
and reshape their worlds in ways we cannot fully predict? With llm now powering
multi-agent systems and social simulations, we are witnessing new possibilities
for modeling open-ended, ever-changing environments. Yet, most current
simulations remain constrained within static sandboxes, characterized by
predefined tasks, limited dynamics, and rigid evaluation criteria. These
limitations prevent them from capturing the complexity of real-world societies.
In this paper, we argue that static, task-specific benchmarks are fundamentally
inadequate and must be rethought. We critically review emerging architectures
that blend llm with multi-agent dynamics, highlight key hurdles such as
balancing stability and diversity, evaluating unexpected behaviors, and scaling
to greater complexity, and introduce a fresh taxonomy for this rapidly evolving
field. Finally, we present a research roadmap centered on open-endedness,
continuous co-evolution, and the development of resilient, socially aligned AI
ecosystems. We call on the community to move beyond static paradigms and help
shape the next generation of adaptive, socially-aware multi-agent simulations.