ChatPaper.aiChatPaper

Desflanderización para el Diálogo en Juegos: Equilibrando la Autenticidad del Personaje con la Ejecución de Tareas en NPCs Basados en LLM

Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs

October 15, 2025
Autores: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI

Resumen

El surgimiento de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) ha abierto nuevas oportunidades para la creación de personajes no jugadores (NPCs) dinámicos en entornos de juegos, permitiendo tanto la ejecución de tareas funcionales como la generación de diálogos coherentes con la personalidad del personaje. En este artículo, nosotros (Tu_Character_lab) informamos sobre nuestra participación en el Desafío de Diálogo con Personalidad Basado en Sentido Común (CPDC) 2025, Ronda 2, el cual evalúa agentes en tres categorías: diálogo orientado a tareas, diálogo consciente del contexto y su integración. Nuestro enfoque combina dos estrategias complementarias: (i) técnicas de *prompting* ligero en la categoría de API, incluyendo un método de *prompting* de "Deflanderización" para suprimir el exceso de interpretación de roles y mejorar la fidelidad en la ejecución de tareas, y (ii) modelos de gran escala ajustados en la categoría de GPU, utilizando Qwen3-14B con ajuste supervisado (SFT) y Adaptación de Bajo Rango (LoRA). Nuestras mejores presentaciones obtuvieron el 2º puesto en la Tarea 1, el 2º puesto en la Tarea 3 (categoría API) y el 4º puesto en la Tarea 3 (categoría GPU).
English
The emergence of large language models (LLMs) has opened new opportunities for cre- ating dynamic non-player characters (NPCs) in gaming environments, enabling both func- tional task execution and persona-consistent dialogue generation. In this paper, we (Tu_Character_lab) report our participation in the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which eval- uates agents across three tracks: task-oriented dialogue, context-aware dialogue, and their integration. Our approach combines two complementary strategies: (i) lightweight prompting techniques in the API track, including a Deflanderization prompting method to suppress excessive role-play and improve task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on Task 3 (GPU track).
PDF02October 16, 2025