Deflanderizzazione per i dialoghi di gioco: Bilanciare l'autenticità del personaggio con l'esecuzione dei compiti negli NPC basati su LLM
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
Autori: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
Abstract
L'emergenza dei grandi modelli linguistici (LLM) ha aperto nuove opportunità per la creazione di personaggi non giocanti (NPC) dinamici negli ambienti di gioco, consentendo sia l'esecuzione di compiti funzionali che la generazione di dialoghi coerenti con la personalità. In questo articolo, noi (Tu_Character_lab) riportiamo la nostra partecipazione alla Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, che valuta gli agenti attraverso tre tracce: dialogo orientato ai compiti, dialogo consapevole del contesto e la loro integrazione. Il nostro approccio combina due strategie complementari: (i) tecniche di prompting leggere nella traccia API, inclusa un metodo di prompting Deflanderization per sopprimere l'eccessivo role-play e migliorare la fedeltà ai compiti, e (ii) modelli grandi affinati nella traccia GPU, sfruttando Qwen3-14B con affinamento supervisionato (SFT) e Low-Rank Adaptation (LoRA). Le nostre migliori proposte si sono classificate al 2° posto nel Task 1, al 2° posto nel Task 3 (traccia API) e al 4° posto nel Task 3 (traccia GPU).
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).