ChatPaper.aiChatPaper

Deflanderisierung für Spieledialoge: Abwägung zwischen Charakterauthentizität und Aufgabenausführung in LLM-basierten NPCs

Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs

October 15, 2025
papers.authors: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI

papers.abstract

Die Entstehung großer Sprachmodelle (LLMs) hat neue Möglichkeiten für die Erstellung dynamischer Nicht-Spieler-Charaktere (NPCs) in Spielumgebungen eröffnet, wodurch sowohl die Ausführung funktionaler Aufgaben als auch die Generierung von persona-konsistenten Dialogen ermöglicht wird. In diesem Artikel berichten wir (Tu_Character_lab) über unsere Teilnahme am Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025, Runde 2, bei dem Agenten in drei Kategorien bewertet werden: aufgabenorientierte Dialoge, kontextbewusste Dialoge und deren Integration. Unser Ansatz kombiniert zwei komplementäre Strategien: (i) leichtgewichtige Prompting-Techniken im API-Track, einschließlich einer Deflanderization-Prompting-Methode, um übermäßiges Rollenspiel zu unterdrücken und die Aufgabenfidelität zu verbessern, und (ii) feinabgestimmte große Modelle im GPU-Track, die Qwen3-14B mit überwachtem Feinabstimmen (SFT) und Low-Rank Adaptation (LoRA) nutzen. Unsere besten Einreichungen belegten den 2. Platz in Aufgabe 1, den 2. Platz in Aufgabe 3 (API-Track) und den 4. Platz in Aufgabe 3 (GPU-Track).
English
The emergence of large language models (LLMs) has opened new opportunities for cre- ating dynamic non-player characters (NPCs) in gaming environments, enabling both func- tional task execution and persona-consistent dialogue generation. In this paper, we (Tu_Character_lab) report our participation in the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which eval- uates agents across three tracks: task-oriented dialogue, context-aware dialogue, and their integration. Our approach combines two complementary strategies: (i) lightweight prompting techniques in the API track, including a Deflanderization prompting method to suppress excessive role-play and improve task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on Task 3 (GPU track).
PDF02October 16, 2025