Использование больших языковых моделей в диалоговых рекомендательных системах
Leveraging Large Language Models in Conversational Recommender Systems
May 13, 2023
Авторы: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI
Аннотация
Система рекомендаций с поддержкой диалога (Conversational Recommender System, CRS) предоставляет пользователям повышенную прозрачность и контроль, позволяя взаимодействовать с системой через многоходовый диалог в реальном времени. В последнее время крупные языковые модели (Large Language Models, LLMs) продемонстрировали беспрецедентную способность вести естественные беседы, включая знания о мире и здравый смысл в понимание языка, что открывает новые возможности для этой парадигмы. Однако эффективное использование LLMs в CRS ставит новые технические задачи, включая правильное понимание и управление сложным диалогом, а также извлечение информации из внешних источников. Эти проблемы усугубляются большим и постоянно меняющимся набором элементов, а также отсутствием данных для обучения на основе диалогов. В данной статье мы предлагаем дорожную карту для создания масштабируемой CRS с использованием LLMs. В частности, мы предлагаем новые реализации для понимания предпочтений пользователей, гибкого управления диалогом и объяснимых рекомендаций в рамках интегрированной архитектуры, основанной на LLMs. Для улучшения персонализации мы описываем, как LLM может использовать интерпретируемые профили пользователей на естественном языке и применять их для модуляции контекста на уровне сессии. Чтобы преодолеть ограничения данных для диалогов в отсутствие существующей производственной CRS, мы предлагаем методы создания управляемого симулятора пользователя на основе LLM для генерации синтетических диалогов. В качестве доказательства концепции мы представляем RecLLM — масштабируемую CRS для рекомендаций видео на YouTube, построенную на основе LaMDA, и демонстрируем её беглость и разнообразные функциональные возможности на примере нескольких иллюстративных диалогов.
English
A Conversational Recommender System (CRS) offers increased transparency and
control to users by enabling them to engage with the system through a real-time
multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an
unprecedented ability to converse naturally and incorporate world knowledge and
common-sense reasoning into language understanding, unlocking the potential of
this paradigm. However, effectively leveraging LLMs within a CRS introduces new
technical challenges, including properly understanding and controlling a
complex conversation and retrieving from external sources of information. These
issues are exacerbated by a large, evolving item corpus and a lack of
conversational data for training. In this paper, we provide a roadmap for
building an end-to-end large-scale CRS using LLMs. In particular, we propose
new implementations for user preference understanding, flexible dialogue
management and explainable recommendations as part of an integrated
architecture powered by LLMs. For improved personalization, we describe how an
LLM can consume interpretable natural language user profiles and use them to
modulate session-level context. To overcome conversational data limitations in
the absence of an existing production CRS, we propose techniques for building a
controllable LLM-based user simulator to generate synthetic conversations. As a
proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos
built on LaMDA, and demonstrate its fluency and diverse functionality through
some illustrative example conversations.