ChatPaper.aiChatPaper

SPASM: Simulación de Agentes con Personalidad Estable para la Generación de Diálogos Multiturno

SPASM: Stable Persona-driven Agent Simulation for Multi-turn Dialogue Generation

April 10, 2026
Autores: Han Luo, Guy Laban
cs.AI

Resumen

Los modelos de lenguaje a gran escala se despliegan cada vez más en entornos de múltiples turnos, como tutorías, soporte y asesoramiento, donde la fiabilidad depende de preservar roles, personalidades y objetivos consistentes a lo largo de horizontes largos. Este requisito se vuelve crítico cuando los LLM se utilizan para generar diálogos sintéticos para entrenamiento y evaluación, ya que las conversaciones LLM--LLM pueden acumular fallos relacionados con la identidad, como la deriva de la personalidad, la confusión de roles y el "efecto eco", donde un agente refleja gradualmente a su interlocutor. Presentamos SPASM (Simulación de Agentes Basada en Personalidades Estables para la generación de diálogos multi-turno), un marco modular centrado en la estabilidad que descompone la simulación en (i) creación de personalidades mediante muestreo de esquemas, validación de plausibilidad y elaboración de personalidades en lenguaje natural, (ii) generación de diálogos Cliente--Respondedor, y (iii) detección de terminación para una parada coherente. Para mejorar la estabilidad a largo plazo sin modificar los pesos del modelo, proponemos la Proyección Egocéntrica del Contexto (ECP): el historial del diálogo se almacena en una representación independiente de la perspectiva y se proyecta determinísticamente a la vista egocéntrica de cada agente antes de la generación. A través de tres arquitecturas base de LLM (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) y nueve parejas Cliente--Respondedor, construimos un conjunto de datos de 4.500 personalidades y 45.000 conversaciones (500 personalidades X 10 conversaciones por pareja). Las ablaciones muestran que la ECP reduce sustancialmente la deriva de personalidad y, bajo validación humana, elimina el efecto eco; los análisis de *embeddings* recuperan la estructura de las personalidades y revelan una fuerte geometría de interacción impulsada por el respondedor. Nuestro código está disponible en https://github.com/lhannnn/SPASM.
English
Large language models are increasingly deployed in multi-turn settings such as tutoring, support, and counseling, where reliability depends on preserving consistent roles, personas, and goals across long horizons. This requirement becomes critical when LLMs are used to generate synthetic dialogues for training and evaluation, since LLM--LLM conversations can accumulate identity-related failures such as persona drift, role confusion, and "echoing", where one agent gradually mirrors its partner. We introduce SPASM (Stable Persona-driven Agent Simulation for Multi-turn dialogue generation), a modular, stability-first framework that decomposes simulation into (i) persona creation via schema sampling, plausibility validation, and natural-language persona crafting, (ii) Client--Responder dialogue generation, and (iii) termination detection for coherent stopping. To improve long-horizon stability without changing model weights, we propose Egocentric Context Projection (ECP): dialogue history is stored in a perspective-agnostic representation and deterministically projected into each agent's egocentric view before generation. Across three LLM backbones (GPT-4o-mini, DeepSeek-V3.2, Qwen-Plus) and nine Client--Responder pairings, we construct a dataset of 4,500 personas and 45,000 conversations (500 personas X 10 conversations per pairing). Ablations show ECP substantially reduces persona drift and, under human validation, eliminates echoing; embedding analyses recover persona structure and reveal strong responder-driven interaction geometry. Our code is available at https://github.com/lhannnn/SPASM.
PDF11April 15, 2026