Desflanderización para el Diálogo en Juegos: Equilibrando la Autenticidad del Personaje con la Ejecución de Tareas en NPCs Basados en LLM
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
Autores: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
Resumen
El surgimiento de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) ha abierto nuevas oportunidades para la creación de personajes no jugadores (NPCs) dinámicos en entornos de juegos, permitiendo tanto la ejecución de tareas funcionales como la generación de diálogos coherentes con la personalidad del personaje. En este artículo, nosotros (Tu_Character_lab) informamos sobre nuestra participación en el Desafío de Diálogo con Personalidad Basado en Sentido Común (CPDC) 2025, Ronda 2, el cual evalúa agentes en tres categorías: diálogo orientado a tareas, diálogo consciente del contexto y su integración. Nuestro enfoque combina dos estrategias complementarias: (i) técnicas de *prompting* ligero en la categoría de API, incluyendo un método de *prompting* de "Deflanderización" para suprimir el exceso de interpretación de roles y mejorar la fidelidad en la ejecución de tareas, y (ii) modelos de gran escala ajustados en la categoría de GPU, utilizando Qwen3-14B con ajuste supervisado (SFT) y Adaptación de Bajo Rango (LoRA). Nuestras mejores presentaciones obtuvieron el 2º puesto en la Tarea 1, el 2º puesto en la Tarea 3 (categoría API) y el 4º puesto en la Tarea 3 (categoría GPU).
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).