ChatPaper.aiChatPaper

Déflanderisation des dialogues de jeu : Équilibre entre authenticité des personnages et exécution des tâches dans les PNJ basés sur des modèles de langage

Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs

October 15, 2025
papers.authors: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI

papers.abstract

L'émergence des grands modèles de langage (LLMs) a ouvert de nouvelles opportunités pour créer des personnages non-joueurs (NPCs) dynamiques dans les environnements de jeu, permettant à la fois l'exécution de tâches fonctionnelles et la génération de dialogues cohérents avec la personnalité des personnages. Dans cet article, nous (Tu_Character_lab) rapportons notre participation au Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, qui évalue les agents selon trois axes : le dialogue orienté tâche, le dialogue contextuel, et leur intégration. Notre approche combine deux stratégies complémentaires : (i) des techniques de prompting légères dans la piste API, incluant une méthode de prompting de "Déflanderisation" pour supprimer le jeu de rôle excessif et améliorer la fidélité à la tâche, et (ii) des modèles de grande taille affinés dans la piste GPU, exploitant Qwen3-14B avec un affinage supervisé (SFT) et une adaptation de bas rang (LoRA). Nos meilleures soumissions se sont classées 2ème sur la Tâche 1, 2ème sur la Tâche 3 (piste API), et 4ème sur la Tâche 3 (piste GPU).
English
The emergence of large language models (LLMs) has opened new opportunities for cre- ating dynamic non-player characters (NPCs) in gaming environments, enabling both func- tional task execution and persona-consistent dialogue generation. In this paper, we (Tu_Character_lab) report our participation in the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which eval- uates agents across three tracks: task-oriented dialogue, context-aware dialogue, and their integration. Our approach combines two complementary strategies: (i) lightweight prompting techniques in the API track, including a Deflanderization prompting method to suppress excessive role-play and improve task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on Task 3 (GPU track).
PDF02October 16, 2025