Het benutten van grote taalmodelen in conversatie-aanbevelingssystemen
Leveraging Large Language Models in Conversational Recommender Systems
May 13, 2023
Auteurs: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI
Samenvatting
Een Conversational Recommender System (CRS) biedt gebruikers meer transparantie en controle door hen in staat te stellen met het systeem te interacteren via een real-time, meerzijdige dialoog. Recentelijk hebben Large Language Models (LLMs) een ongekend vermogen getoond om natuurlijk te converseren en wereldkennis en gezond verstand te integreren in taalbegrip, waardoor het potentieel van dit paradigma wordt ontsloten. Het effectief benutten van LLMs binnen een CRS brengt echter nieuwe technische uitdagingen met zich mee, waaronder het correct begrijpen en beheren van complexe gesprekken en het ophalen van informatie uit externe bronnen. Deze problemen worden verergerd door een groot, evoluerend itemcorpus en een gebrek aan conversatiedata voor training. In dit artikel bieden we een routekaart voor het bouwen van een end-to-end grootschalig CRS met behulp van LLMs. In het bijzonder stellen we nieuwe implementaties voor voor het begrijpen van gebruikersvoorkeuren, flexibel dialoogbeheer en uitlegbare aanbevelingen als onderdeel van een geïntegreerde architectuur aangedreven door LLMs. Voor verbeterde personalisatie beschrijven we hoe een LLM interpreteerbare natuurlijke taalgebruikersprofielen kan verwerken en gebruiken om sessie-niveau context te moduleren. Om de beperkingen in conversatiedata te overwinnen bij afwezigheid van een bestaand productie-CRS, stellen we technieken voor voor het bouwen van een beheersbare, op LLM gebaseerde gebruikerssimulator om synthetische gesprekken te genereren. Als proof of concept introduceren we RecLLM, een grootschalig CRS voor YouTube-video's gebouwd op LaMDA, en demonstreren we de vlotheid en diverse functionaliteit ervan aan de hand van enkele illustratieve voorbeeldgesprekken.
English
A Conversational Recommender System (CRS) offers increased transparency and
control to users by enabling them to engage with the system through a real-time
multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an
unprecedented ability to converse naturally and incorporate world knowledge and
common-sense reasoning into language understanding, unlocking the potential of
this paradigm. However, effectively leveraging LLMs within a CRS introduces new
technical challenges, including properly understanding and controlling a
complex conversation and retrieving from external sources of information. These
issues are exacerbated by a large, evolving item corpus and a lack of
conversational data for training. In this paper, we provide a roadmap for
building an end-to-end large-scale CRS using LLMs. In particular, we propose
new implementations for user preference understanding, flexible dialogue
management and explainable recommendations as part of an integrated
architecture powered by LLMs. For improved personalization, we describe how an
LLM can consume interpretable natural language user profiles and use them to
modulate session-level context. To overcome conversational data limitations in
the absence of an existing production CRS, we propose techniques for building a
controllable LLM-based user simulator to generate synthetic conversations. As a
proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos
built on LaMDA, and demonstrate its fluency and diverse functionality through
some illustrative example conversations.