ChatPaper.aiChatPaper

Statische Sandboxen zijn ontoereikend: het modelleren van maatschappelijke complexiteit vereist open-einde co-evolutie in LLM-gebaseerde multi-agent simulaties.

Static Sandboxes Are Inadequate: Modeling Societal Complexity Requires Open-Ended Co-Evolution in LLM-Based Multi-Agent Simulations

October 15, 2025
Auteurs: Jinkun Chen, Sher Badshah, Xuemin Yu, Sijia Han
cs.AI

Samenvatting

Wat als kunstmatige agenten niet alleen konden communiceren, maar ook evolueren, zich aanpassen en hun werelden op manieren hervormen die we niet volledig kunnen voorspellen? Met llm die nu multi-agent systemen en sociale simulaties aandrijven, zien we nieuwe mogelijkheden voor het modelleren van open, voortdurend veranderende omgevingen. Toch blijven de meeste huidige simulaties beperkt binnen statische sandboxen, gekenmerkt door vooraf gedefinieerde taken, beperkte dynamiek en rigide evaluatiecriteria. Deze beperkingen voorkomen dat ze de complexiteit van echte samenlevingen kunnen vastleggen. In dit artikel betogen we dat statische, taakspecifieke benchmarks fundamenteel ontoereikend zijn en heroverwogen moeten worden. We bespreken kritisch opkomende architecturen die llm combineren met multi-agent dynamiek, benadrukken belangrijke uitdagingen zoals het balanceren van stabiliteit en diversiteit, het evalueren van onverwachte gedragingen en het opschalen naar grotere complexiteit, en introduceren een nieuwe taxonomie voor dit snel evoluerende veld. Tot slot presenteren we een onderzoeksagenda gericht op openheid, continue co-evolutie en de ontwikkeling van veerkrachtige, sociaal afgestemde AI-ecosystemen. We roepen de gemeenschap op om verder te gaan dan statische paradigma's en bij te dragen aan de vorming van de volgende generatie adaptieve, sociaal bewuste multi-agent simulaties.
English
What if artificial agents could not just communicate, but also evolve, adapt, and reshape their worlds in ways we cannot fully predict? With llm now powering multi-agent systems and social simulations, we are witnessing new possibilities for modeling open-ended, ever-changing environments. Yet, most current simulations remain constrained within static sandboxes, characterized by predefined tasks, limited dynamics, and rigid evaluation criteria. These limitations prevent them from capturing the complexity of real-world societies. In this paper, we argue that static, task-specific benchmarks are fundamentally inadequate and must be rethought. We critically review emerging architectures that blend llm with multi-agent dynamics, highlight key hurdles such as balancing stability and diversity, evaluating unexpected behaviors, and scaling to greater complexity, and introduce a fresh taxonomy for this rapidly evolving field. Finally, we present a research roadmap centered on open-endedness, continuous co-evolution, and the development of resilient, socially aligned AI ecosystems. We call on the community to move beyond static paradigms and help shape the next generation of adaptive, socially-aware multi-agent simulations.
PDF12October 22, 2025