Deflanderisatie voor speldialoog: Balanceren tussen karakterauthenticiteit en taakuitvoering in LLM-gebaseerde NPC's
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
Auteurs: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
Samenvatting
De opkomst van grote taalmmodellen (LLMs) heeft nieuwe mogelijkheden geopend voor het creëren van dynamische non-player characters (NPCs) in gamingomgevingen, waardoor zowel functionele taakuitvoering als dialooggeneratie die consistent is met de persona mogelijk wordt. In dit artikel rapporteren wij (Tu_Character_lab) onze deelname aan de Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Ronde 2, waarbij agents worden geëvalueerd op drie sporen: taakgerichte dialoog, contextbewuste dialoog en de integratie daarvan. Onze aanpak combineert twee complementaire strategieën: (i) lichtgewicht promptingtechnieken in het API-spoor, inclusief een Deflanderization prompting-methode om excessief rollenspel te onderdrukken en de taakgetrouwheid te verbeteren, en (ii) fijn afgestelde grote modellen in het GPU-spoor, waarbij gebruik wordt gemaakt van Qwen3-14B met supervised finetuning (SFT) en Low-Rank Adaptation (LoRA). Onze beste inzendingen behaalden de 2e plaats in Taak 1, de 2e plaats in Taak 3 (API-spoor) en de 4e plaats in Taak 3 (GPU-spoor).
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).