대규모 언어 모델을 활용한 대화형 추천 시스템
Leveraging Large Language Models in Conversational Recommender Systems
May 13, 2023
저자: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI
초록
대화형 추천 시스템(Conversational Recommender System, CRS)은 사용자가 실시간 다중 턴 대화를 통해 시스템과 상호작용할 수 있도록 함으로써 투명성과 제어력을 높여줍니다. 최근 대규모 언어 모델(Large Language Models, LLMs)은 자연스러운 대화 능력과 세계 지식 및 상식적 추론을 언어 이해에 통합하는 전례 없는 능력을 보여주며, 이 패러다임의 잠재력을 개방했습니다. 그러나 CRS 내에서 LLMs를 효과적으로 활용하는 것은 복잡한 대화를 올바르게 이해하고 제어하며 외부 정보 소스에서 검색하는 것과 같은 새로운 기술적 과제를 도입합니다. 이러한 문제는 크고 진화하는 아이템 코퍼스와 훈련을 위한 대화 데이터의 부족으로 인해 더욱 악화됩니다. 본 논문에서는 LLMs를 사용하여 대규모 종단간(end-to-end) CRS를 구축하기 위한 로드맵을 제시합니다. 특히, LLMs로 구동되는 통합 아키텍처의 일부로 사용자 선호도 이해, 유연한 대화 관리 및 설명 가능한 추천을 위한 새로운 구현 방안을 제안합니다. 개인화를 개선하기 위해, LLM이 해석 가능한 자연어 사용자 프로필을 소비하고 이를 세션 수준의 컨텍스트를 조정하는 데 사용하는 방법을 설명합니다. 기존의 생산 CRS가 없는 상황에서 대화 데이터의 한계를 극복하기 위해, 합성 대화를 생성할 수 있는 제어 가능한 LLM 기반 사용자 시뮬레이터를 구축하는 기술을 제안합니다. 개념 증명으로, LaMDA를 기반으로 YouTube 동영상을 위한 대규모 CRS인 RecLLM을 소개하고, 몇 가지 예시 대화를 통해 그 유창성과 다양한 기능을 입증합니다.
English
A Conversational Recommender System (CRS) offers increased transparency and
control to users by enabling them to engage with the system through a real-time
multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an
unprecedented ability to converse naturally and incorporate world knowledge and
common-sense reasoning into language understanding, unlocking the potential of
this paradigm. However, effectively leveraging LLMs within a CRS introduces new
technical challenges, including properly understanding and controlling a
complex conversation and retrieving from external sources of information. These
issues are exacerbated by a large, evolving item corpus and a lack of
conversational data for training. In this paper, we provide a roadmap for
building an end-to-end large-scale CRS using LLMs. In particular, we propose
new implementations for user preference understanding, flexible dialogue
management and explainable recommendations as part of an integrated
architecture powered by LLMs. For improved personalization, we describe how an
LLM can consume interpretable natural language user profiles and use them to
modulate session-level context. To overcome conversational data limitations in
the absence of an existing production CRS, we propose techniques for building a
controllable LLM-based user simulator to generate synthetic conversations. As a
proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos
built on LaMDA, and demonstrate its fluency and diverse functionality through
some illustrative example conversations.