ChatPaper.aiChatPaper

Het benutten van grote taalmodelen in conversatie-aanbevelingssystemen

Leveraging Large Language Models in Conversational Recommender Systems

May 13, 2023
Auteurs: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI

Samenvatting

Een Conversational Recommender System (CRS) biedt gebruikers meer transparantie en controle door hen in staat te stellen met het systeem te interacteren via een real-time, meerzijdige dialoog. Recentelijk hebben Large Language Models (LLMs) een ongekend vermogen getoond om natuurlijk te converseren en wereldkennis en gezond verstand te integreren in taalbegrip, waardoor het potentieel van dit paradigma wordt ontsloten. Het effectief benutten van LLMs binnen een CRS brengt echter nieuwe technische uitdagingen met zich mee, waaronder het correct begrijpen en beheren van complexe gesprekken en het ophalen van informatie uit externe bronnen. Deze problemen worden verergerd door een groot, evoluerend itemcorpus en een gebrek aan conversatiedata voor training. In dit artikel bieden we een routekaart voor het bouwen van een end-to-end grootschalig CRS met behulp van LLMs. In het bijzonder stellen we nieuwe implementaties voor voor het begrijpen van gebruikersvoorkeuren, flexibel dialoogbeheer en uitlegbare aanbevelingen als onderdeel van een geïntegreerde architectuur aangedreven door LLMs. Voor verbeterde personalisatie beschrijven we hoe een LLM interpreteerbare natuurlijke taalgebruikersprofielen kan verwerken en gebruiken om sessie-niveau context te moduleren. Om de beperkingen in conversatiedata te overwinnen bij afwezigheid van een bestaand productie-CRS, stellen we technieken voor voor het bouwen van een beheersbare, op LLM gebaseerde gebruikerssimulator om synthetische gesprekken te genereren. Als proof of concept introduceren we RecLLM, een grootschalig CRS voor YouTube-video's gebouwd op LaMDA, en demonstreren we de vlotheid en diverse functionaliteit ervan aan de hand van enkele illustratieve voorbeeldgesprekken.
English
A Conversational Recommender System (CRS) offers increased transparency and control to users by enabling them to engage with the system through a real-time multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an unprecedented ability to converse naturally and incorporate world knowledge and common-sense reasoning into language understanding, unlocking the potential of this paradigm. However, effectively leveraging LLMs within a CRS introduces new technical challenges, including properly understanding and controlling a complex conversation and retrieving from external sources of information. These issues are exacerbated by a large, evolving item corpus and a lack of conversational data for training. In this paper, we provide a roadmap for building an end-to-end large-scale CRS using LLMs. In particular, we propose new implementations for user preference understanding, flexible dialogue management and explainable recommendations as part of an integrated architecture powered by LLMs. For improved personalization, we describe how an LLM can consume interpretable natural language user profiles and use them to modulate session-level context. To overcome conversational data limitations in the absence of an existing production CRS, we propose techniques for building a controllable LLM-based user simulator to generate synthetic conversations. As a proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos built on LaMDA, and demonstrate its fluency and diverse functionality through some illustrative example conversations.
PDF30December 15, 2024