SPASM: Simulação de Agente com Personagem Estável para Geração de Diálogos Multiturno
SPASM: Stable Persona-driven Agent Simulation for Multi-turn Dialogue Generation
April 10, 2026
Autores: Han Luo, Guy Laban
cs.AI
Resumo
Os modelos de linguagem de grande escala (LLMs) estão cada vez mais sendo implantados em ambientes de múltiplos turnos, como tutoria, suporte e aconselhamento, onde a confiabilidade depende da preservação de papéis, personas e objetivos consistentes em horizontes longos. Este requisito torna-se crítico quando os LLMs são usados para gerar diálogos sintéticos para treinamento e avaliação, uma vez que as conversas entre LLMs podem acumular falhas relacionadas à identidade, como deriva de persona, confusão de papéis e "ecoamento", onde um agente gradualmente espelha seu parceiro. Apresentamos o SPASM (Simulação de Agente Orientada por Persona Estável para geração de diálogo multi-turno), uma estrutura modular, com prioridade na estabilidade, que decompõe a simulação em (i) criação de persona via amostragem de esquema, validação de plausibilidade e elaboração de persona em linguagem natural, (ii) geração de diálogo Cliente--Respondedor, e (iii) detecção de término para parada coerente. Para melhorar a estabilidade de longo horizonte sem alterar os pesos do modelo, propomos a Projeção Egocêntrica de Contexto (ECP): o histórico do diálogo é armazenado em uma representação agnóstica à perspectiva e projetado deterministicamente na visão egocêntrica de cada agente antes da geração. Através de três modelos base (backbones) de LLM (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) e nove pares Cliente--Respondedor, construímos um conjunto de dados com 4.500 personas e 45.000 conversas (500 personas X 10 conversas por par). Ablações mostram que a ECP reduz substancialmente a deriva de persona e, sob validação humana, elimina o ecoamento; análises de embeddings recuperam a estrutura da persona e revelam uma forte geometria de interação dirigida pelo respondedor. Nosso código está disponível em https://github.com/lhannnn/SPASM.
English
Large language models are increasingly deployed in multi-turn settings such as tutoring, support, and counseling, where reliability depends on preserving consistent roles, personas, and goals across long horizons. This requirement becomes critical when LLMs are used to generate synthetic dialogues for training and evaluation, since LLM--LLM conversations can accumulate identity-related failures such as persona drift, role confusion, and "echoing", where one agent gradually mirrors its partner. We introduce SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), a modular, stability-first framework that decomposes simulation into (i) persona creation via schema sampling, plausibility validation, and natural-language persona crafting, (ii) Client--Responder dialogue generation, and (iii) termination detection for coherent stopping. To improve long-horizon stability without changing model weights, we propose Egocentric Context Projection (ECP): dialogue history is stored in a perspective-agnostic representation and deterministically projected into each agent's egocentric view before generation. Across three LLM backbones (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) and nine Client--Responder pairings, we construct a dataset of 4,500 personas and 45,000 conversations (500 personas X 10 conversations per pairing). Ablations show ECP substantially reduces persona drift and, under human validation, eliminates echoing; embedding analyses recover persona structure and reveal strong responder-driven interaction geometry. Our code is available at https://github.com/lhannnn/SPASM.