ChatPaper.aiChatPaper

Дефландеризация игровых диалогов: баланс между аутентичностью персонажей и выполнением задач в NPC на основе языковых моделей

Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs

October 15, 2025
Авторы: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI

Аннотация

Появление крупных языковых моделей (LLM) открыло новые возможности для создания динамичных неигровых персонажей (NPC) в игровых средах, позволяя как выполнение функциональных задач, так и генерацию диалогов, соответствующих персонажу. В данной статье мы (Tu_Character_lab) сообщаем о нашем участии в конкурсе Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025, раунд 2, который оценивает агентов по трем направлениям: целевые диалоги, контекстно-зависимые диалоги и их интеграция. Наш подход сочетает две взаимодополняющие стратегии: (i) легковесные техники промптинга в API-треке, включая метод Deflanderization для подавления избыточной ролевой игры и повышения точности выполнения задач, и (ii) тонко настроенные крупные модели в GPU-треке, использующие Qwen3-14B с контролируемым дообучением (SFT) и адаптацией низкого ранга (LoRA). Наши лучшие результаты заняли 2-е место в Задаче 1, 2-е место в Задаче 3 (API-трек) и 4-е место в Задаче 3 (GPU-трек).
English
The emergence of large language models (LLMs) has opened new opportunities for cre- ating dynamic non-player characters (NPCs) in gaming environments, enabling both func- tional task execution and persona-consistent dialogue generation. In this paper, we (Tu_Character_lab) report our participation in the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which eval- uates agents across three tracks: task-oriented dialogue, context-aware dialogue, and their integration. Our approach combines two complementary strategies: (i) lightweight prompting techniques in the API track, including a Deflanderization prompting method to suppress excessive role-play and improve task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on Task 3 (GPU track).
PDF02October 16, 2025