Deflanderização para Diálogos em Jogos: Equilibrando Autenticidade de Personagem com Execução de Tarefas em NPCs Baseados em LLM
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
Autores: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
Resumo
O surgimento de grandes modelos de linguagem (LLMs) abriu novas oportunidades para a criação de personagens não jogáveis (NPCs) dinâmicos em ambientes de jogos, permitindo tanto a execução de tarefas funcionais quanto a geração de diálogos consistentes com a personalidade do personagem. Neste artigo, nós (Tu_Character_lab) relatamos nossa participação no Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, que avalia agentes em três categorias: diálogo orientado a tarefas, diálogo contextualmente consciente e sua integração. Nossa abordagem combina duas estratégias complementares: (i) técnicas de *prompting* leve na categoria API, incluindo um método de *prompting* de "Deflanderização" para suprir o excesso de interpretação de papéis e melhorar a fidelidade às tarefas, e (ii) modelos grandes ajustados na categoria GPU, utilizando o Qwen3-14B com ajuste supervisionado (SFT) e Adaptação de Baixa Classificação (LoRA). Nossas melhores submissões ficaram em 2º lugar na Tarefa 1, 2º lugar na Tarefa 3 (categoria API) e 4º lugar na Tarefa 3 (categoria GPU).
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).