ChatPaper.aiChatPaper

Deflanderizzazione per i dialoghi di gioco: Bilanciare l'autenticità del personaggio con l'esecuzione dei compiti negli NPC basati su LLM

Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs

October 15, 2025
Autori: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI

Abstract

L'emergenza dei grandi modelli linguistici (LLM) ha aperto nuove opportunità per la creazione di personaggi non giocanti (NPC) dinamici negli ambienti di gioco, consentendo sia l'esecuzione di compiti funzionali che la generazione di dialoghi coerenti con la personalità. In questo articolo, noi (Tu_Character_lab) riportiamo la nostra partecipazione alla Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, che valuta gli agenti attraverso tre tracce: dialogo orientato ai compiti, dialogo consapevole del contesto e la loro integrazione. Il nostro approccio combina due strategie complementari: (i) tecniche di prompting leggere nella traccia API, inclusa un metodo di prompting Deflanderization per sopprimere l'eccessivo role-play e migliorare la fedeltà ai compiti, e (ii) modelli grandi affinati nella traccia GPU, sfruttando Qwen3-14B con affinamento supervisionato (SFT) e Low-Rank Adaptation (LoRA). Le nostre migliori proposte si sono classificate al 2° posto nel Task 1, al 2° posto nel Task 3 (traccia API) e al 4° posto nel Task 3 (traccia GPU).
English
The emergence of large language models (LLMs) has opened new opportunities for cre- ating dynamic non-player characters (NPCs) in gaming environments, enabling both func- tional task execution and persona-consistent dialogue generation. In this paper, we (Tu_Character_lab) report our participation in the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which eval- uates agents across three tracks: task-oriented dialogue, context-aware dialogue, and their integration. Our approach combines two complementary strategies: (i) lightweight prompting techniques in the API track, including a Deflanderization prompting method to suppress excessive role-play and improve task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on Task 3 (GPU track).
PDF02October 16, 2025