오늘날의 대형 언어 모델(LLMs)은 웰빙 개념을 잘 설명할 준비가 되었는가?
Are Today's LLMs Ready to Explain Well-Being Concepts?
August 6, 2025
저자: Bohan Jiang, Dawei Li, Zhen Tan, Chengshuai Zhao, Huan Liu
cs.AI
초록
웰빙은 개인 성장과 정보에 기반한 삶의 결정에 필수적인 정신적, 신체적, 사회적 차원을 포괄합니다. 개인들이 대형 언어 모델(LLM)을 점점 더 많이 활용하여 웰빙을 이해하려 함에 따라, 중요한 과제가 대두됩니다: LLM이 정확할 뿐만 아니라 다양한 청중에게 맞춤화된 설명을 생성할 수 있을까요? 고품질의 설명은 사실적 정확성과 다양한 전문성을 가진 사용자의 기대를 충족시킬 수 있는 능력 모두를 요구합니다. 본 연구에서는 2,194개의 웰빙 개념에 대한 43,880개의 설명으로 구성된 대규모 데이터셋을 구축하고, 이를 10개의 다양한 LLM이 생성하도록 했습니다. 우리는 원칙 기반의 LLM-as-a-judge 평가 프레임워크를 도입하여, 이중 판단자를 활용해 설명의 질을 평가합니다. 또한, 지도 미세 조정(SFT)과 직접 선호 최적화(DPO)를 사용해 오픈소스 LLM을 미세 조정함으로써 생성된 설명의 질을 크게 향상시킬 수 있음을 보여줍니다. 우리의 결과는 다음과 같습니다: (1) 제안된 LLM 판단자는 인간 평가와 잘 일치합니다; (2) 설명의 질은 모델, 청중, 카테고리에 따라 크게 달라집니다; (3) DPO와 SFT로 미세 조정된 모델이 더 큰 규모의 모델을 능가하며, 특수화된 설명 작업에 대한 선호 기반 학습의 효과를 입증합니다.
English
Well-being encompasses mental, physical, and social dimensions essential to
personal growth and informed life decisions. As individuals increasingly
consult Large Language Models (LLMs) to understand well-being, a key challenge
emerges: Can LLMs generate explanations that are not only accurate but also
tailored to diverse audiences? High-quality explanations require both factual
correctness and the ability to meet the expectations of users with varying
expertise. In this work, we construct a large-scale dataset comprising 43,880
explanations of 2,194 well-being concepts, generated by ten diverse LLMs. We
introduce a principle-guided LLM-as-a-judge evaluation framework, employing
dual judges to assess explanation quality. Furthermore, we show that
fine-tuning an open-source LLM using Supervised Fine-Tuning (SFT) and Direct
Preference Optimization (DPO) can significantly enhance the quality of
generated explanations. Our results reveal: (1) The proposed LLM judges align
well with human evaluations; (2) explanation quality varies significantly
across models, audiences, and categories; and (3) DPO- and SFT-finetuned models
outperform their larger counterparts, demonstrating the effectiveness of
preference-based learning for specialized explanation tasks.