Deflanderisierung für Spieledialoge: Abwägung zwischen Charakterauthentizität und Aufgabenausführung in LLM-basierten NPCs
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
papers.authors: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
papers.abstract
Die Entstehung großer Sprachmodelle (LLMs) hat neue Möglichkeiten für die Erstellung dynamischer Nicht-Spieler-Charaktere (NPCs) in Spielumgebungen eröffnet, wodurch sowohl die Ausführung funktionaler Aufgaben als auch die Generierung von persona-konsistenten Dialogen ermöglicht wird. In diesem Artikel berichten wir (Tu_Character_lab) über unsere Teilnahme am Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025, Runde 2, bei dem Agenten in drei Kategorien bewertet werden: aufgabenorientierte Dialoge, kontextbewusste Dialoge und deren Integration. Unser Ansatz kombiniert zwei komplementäre Strategien: (i) leichtgewichtige Prompting-Techniken im API-Track, einschließlich einer Deflanderization-Prompting-Methode, um übermäßiges Rollenspiel zu unterdrücken und die Aufgabenfidelität zu verbessern, und (ii) feinabgestimmte große Modelle im GPU-Track, die Qwen3-14B mit überwachtem Feinabstimmen (SFT) und Low-Rank Adaptation (LoRA) nutzen. Unsere besten Einreichungen belegten den 2. Platz in Aufgabe 1, den 2. Platz in Aufgabe 3 (API-Track) und den 4. Platz in Aufgabe 3 (GPU-Track).
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).