게임 대화를 위한 디플랜더라이제이션: LLM 기반 NPC에서 캐릭터의 진정성과 과제 수행 간의 균형
Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs
October 15, 2025
저자: Pasin Buakhaw, Kun Kerdthaisong, Phuree Phenhiran, Pitikorn Khlaisamniang, Supasate Vorathammathorn, Piyalitt Ittichaiwong, Nutchanon Yongsatianchot
cs.AI
초록
대규모 언어 모델(LLMs)의 등장은 게임 환경에서 역동적인 비플레이어 캐릭터(NPCs)를 생성할 수 있는 새로운 기회를 열어주었으며, 이는 기능적 작업 수행과 캐릭터 일관성 있는 대화 생성을 모두 가능하게 한다. 본 논문에서는 Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2에 참가한 (Tu_Character_lab)의 경험을 보고한다. 이 대회는 작업 지향 대화, 상황 인식 대화, 그리고 이들의 통합이라는 세 가지 트랙에서 에이전트를 평가한다. 우리의 접근 방식은 두 가지 상호 보완적인 전략을 결합하였다: (i) API 트랙에서의 경량 프롬프팅 기법, 과도한 역할극을 억제하고 작업 충실도를 향상시키기 위한 Deflanderization 프롬프팅 방법을 포함하며, (ii) GPU 트랙에서의 미세 조정된 대규모 모델, Qwen3-14B를 지도 미세 조정(SFT) 및 Low-Rank Adaptation(LoRA)을 활용하였다. 우리의 최고 제출물은 Task 1에서 2위, Task 3 (API 트랙)에서 2위, 그리고 Task 3 (GPU 트랙)에서 4위를 기록하였다.
English
The emergence of large language models (LLMs) has opened new opportunities
for cre- ating dynamic non-player characters (NPCs) in gaming environments,
enabling both func- tional task execution and persona-consistent dialogue
generation. In this paper, we (Tu_Character_lab) report our participation in
the Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2, which
eval- uates agents across three tracks: task-oriented dialogue, context-aware
dialogue, and their integration. Our approach combines two complementary
strategies: (i) lightweight prompting techniques in the API track, including a
Deflanderization prompting method to suppress excessive role-play and improve
task fidelity, and (ii) fine-tuned large models in the GPU track, leveraging
Qwen3-14B with supervisedfinetuning (SFT) and Low-Rank Adaptation(LoRA). Our
best submissions ranked 2nd on Task 1, 2nd on Task 3 (API track), and 4th on
Task 3 (GPU track).