ChatPaper.aiChatPaper

SPASM: Stabiele Persona-gestuurde Agentsimulatie voor Multi-turn Dialooggeneratie

SPASM: Stable Persona-driven Agent Simulation for Multi-turn Dialogue Generation

April 10, 2026
Auteurs: Han Luo, Guy Laban
cs.AI

Samenvatting

Grote taalmodellen worden steeds vaker ingezet in multi-turn settings zoals tutoring, ondersteuning en counseling, waarbij betrouwbaarheid afhangt van het behoud van consistente rollen, persona's en doelstellingen over lange horizonnen. Deze vereiste wordt kritiek wanneer LLM's worden gebruikt om synthetische dialogen te genereren voor training en evaluatie, omdat LLM–LLM-gesprekken identiteitsgerelateerde fouten kunnen accumuleren, zoals persona-drift, rolverwarring en "echoing", waarbij de ene agent geleidelijk zijn partner gaat nabootsen. Wij introduceren SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), een modulair, stabiliteit-gericht framework dat simulatie decomposeert in (i) persona-creatie via schema-sampling, plausibiliteitsvalidatie en natuurlijktaal-personaconstructie, (ii) Client–Responder-dialooggeneratie, en (iii) terminatiedetectie voor coherent stoppen. Om stabiliteit over lange horizonnen te verbeteren zonder de modelgewichten aan te passen, stellen wij Egocentrische Contextprojectie (ECP) voor: dialooggeschiedenis wordt opgeslagen in een perspectief-agnostische representatie en deterministisch geprojecteerd in het egocentrische perspectief van elke agent vóór generatie. Over drie LLM-backbones (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) en negen Client–Responder-koppelingen construeren we een dataset van 4.500 persona's en 45.000 gesprekken (500 persona's X 10 gesprekken per koppeling). Ablatiestudies tonen aan dat ECP persona-drift aanzienlijk reduceert en, na menselijke validatie, echoing elimineert; embedding-analyses herstellen de personastructuur en onthullen een sterke door de Responder gedreven interactiegeometrie. Onze code is beschikbaar op https://github.com/lhannnn/SPASM.
English
Large language models are increasingly deployed in multi-turn settings such as tutoring, support, and counseling, where reliability depends on preserving consistent roles, personas, and goals across long horizons. This requirement becomes critical when LLMs are used to generate synthetic dialogues for training and evaluation, since LLM--LLM conversations can accumulate identity-related failures such as persona drift, role confusion, and "echoing", where one agent gradually mirrors its partner. We introduce SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), a modular, stability-first framework that decomposes simulation into (i) persona creation via schema sampling, plausibility validation, and natural-language persona crafting, (ii) Client--Responder dialogue generation, and (iii) termination detection for coherent stopping. To improve long-horizon stability without changing model weights, we propose Egocentric Context Projection (ECP): dialogue history is stored in a perspective-agnostic representation and deterministically projected into each agent's egocentric view before generation. Across three LLM backbones (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) and nine Client--Responder pairings, we construct a dataset of 4,500 personas and 45,000 conversations (500 personas X 10 conversations per pairing). Ablations show ECP substantially reduces persona drift and, under human validation, eliminates echoing; embedding analyses recover persona structure and reveal strong responder-driven interaction geometry. Our code is available at https://github.com/lhannnn/SPASM.
PDF32April 21, 2026