ChatPaper.aiChatPaper

SPASM: Simulazione Agente Stabile Basata su Personaggio per la Generazione di Dialoghi Multi-turn

SPASM: Stable Persona-driven Agent Simulation for Multi-turn Dialogue Generation

April 10, 2026
Autori: Han Luo, Guy Laban
cs.AI

Abstract

I modelli linguistici di grandi dimensioni sono sempre più impiegati in contesti multi-turno come tutoraggio, supporto e consulenza, dove l'affidabilità dipende dalla capacità di preservare ruoli, personaggi e obiettivi coerenti su lunghi orizzonti. Questo requisito diventa critico quando gli LLM sono utilizzati per generare dialoghi sintetici per l'addestramento e la valutazione, poiché le conversazioni LLM--LLM possono accumulare errori legati all'identità come la deriva del personaggio, la confusione di ruolo e l'"eco", dove un agente riflette gradualmente il suo partner. Introduciamo SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), un framework modulare, orientato alla stabilità, che scompone la simulazione in (i) creazione del personaggio mediante campionamento di schemi, validazione di plausibilità e creazione del personaggio in linguaggio naturale, (ii) generazione del dialogo Cliente--Risponditore, e (iii) rilevamento della terminazione per un arresto coerente. Per migliorare la stabilità su lungo orizzonte senza modificare i pesi del modello, proponiamo la Proiezione EgoCentrica del Contesto (ECP): la cronologia del dialogo viene memorizzata in una rappresentazione indipendente dalla prospettiva e proiettata deterministicamente nella visione egocentrica di ciascun agente prima della generazione. Attraverso tre modelli LLM di base (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) e nove accoppiamenti Cliente--Risponditore, abbiamo costruito un dataset di 4.500 personaggi e 45.000 conversazioni (500 personaggi X 10 conversazioni per accoppiamento). Le ablazioni mostrano che l'ECP riduce sostanzialmente la deriva del personaggio e, convalidato da esseri umani, elimina l'eco; le analisi degli embedding recuperano la struttura del personaggio e rivelano una forte geometria d'interazione guidata dal risponditore. Il nostro codice è disponibile all'indirizzo https://github.com/lhannnn/SPASM.
English
Large language models are increasingly deployed in multi-turn settings such as tutoring, support, and counseling, where reliability depends on preserving consistent roles, personas, and goals across long horizons. This requirement becomes critical when LLMs are used to generate synthetic dialogues for training and evaluation, since LLM--LLM conversations can accumulate identity-related failures such as persona drift, role confusion, and "echoing", where one agent gradually mirrors its partner. We introduce SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), a modular, stability-first framework that decomposes simulation into (i) persona creation via schema sampling, plausibility validation, and natural-language persona crafting, (ii) Client--Responder dialogue generation, and (iii) termination detection for coherent stopping. To improve long-horizon stability without changing model weights, we propose Egocentric Context Projection (ECP): dialogue history is stored in a perspective-agnostic representation and deterministically projected into each agent's egocentric view before generation. Across three LLM backbones (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) and nine Client--Responder pairings, we construct a dataset of 4,500 personas and 45,000 conversations (500 personas X 10 conversations per pairing). Ablations show ECP substantially reduces persona drift and, under human validation, eliminates echoing; embedding analyses recover persona structure and reveal strong responder-driven interaction geometry. Our code is available at https://github.com/lhannnn/SPASM.
PDF32April 21, 2026