Sfruttare i Modelli Linguistici di Grandi Dimensioni nei Sistemi di Raccomandazione Conversazionali
Leveraging Large Language Models in Conversational Recommender Systems
May 13, 2023
Autori: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI
Abstract
Un Sistema di Raccomandazione Conversazionale (CRS) offre una maggiore trasparenza e controllo agli utenti, consentendo loro di interagire con il sistema attraverso un dialogo in tempo reale a più turni. Recentemente, i Modelli Linguistici di Grande Dimensione (LLM) hanno dimostrato una capacità senza precedenti di conversare in modo naturale e di incorporare conoscenze del mondo e ragionamenti di buon senso nella comprensione del linguaggio, sbloccando il potenziale di questo paradigma. Tuttavia, sfruttare efficacemente gli LLM all'interno di un CRS introduce nuove sfide tecniche, tra cui comprendere e controllare correttamente una conversazione complessa e recuperare informazioni da fonti esterne. Questi problemi sono esacerbati da un corpus di elementi ampio e in evoluzione e dalla mancanza di dati conversazionali per l'addestramento. In questo articolo, forniamo una roadmap per la costruzione di un CRS su larga scala end-to-end utilizzando gli LLM. In particolare, proponiamo nuove implementazioni per la comprensione delle preferenze dell'utente, la gestione flessibile del dialogo e le raccomandazioni spiegabili come parte di un'architettura integrata alimentata da LLM. Per una migliore personalizzazione, descriviamo come un LLM possa consumare profili utente interpretabili in linguaggio naturale e utilizzarli per modulare il contesto a livello di sessione. Per superare le limitazioni dei dati conversazionali in assenza di un CRS di produzione esistente, proponiamo tecniche per costruire un simulatore utente basato su LLM controllabile per generare conversazioni sintetiche. Come prova di concetto, introduciamo RecLLM, un CRS su larga scala per i video di YouTube basato su LaMDA, e ne dimostriamo la fluidità e la funzionalità diversificata attraverso alcune conversazioni illustrative.
English
A Conversational Recommender System (CRS) offers increased transparency and
control to users by enabling them to engage with the system through a real-time
multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an
unprecedented ability to converse naturally and incorporate world knowledge and
common-sense reasoning into language understanding, unlocking the potential of
this paradigm. However, effectively leveraging LLMs within a CRS introduces new
technical challenges, including properly understanding and controlling a
complex conversation and retrieving from external sources of information. These
issues are exacerbated by a large, evolving item corpus and a lack of
conversational data for training. In this paper, we provide a roadmap for
building an end-to-end large-scale CRS using LLMs. In particular, we propose
new implementations for user preference understanding, flexible dialogue
management and explainable recommendations as part of an integrated
architecture powered by LLMs. For improved personalization, we describe how an
LLM can consume interpretable natural language user profiles and use them to
modulate session-level context. To overcome conversational data limitations in
the absence of an existing production CRS, we propose techniques for building a
controllable LLM-based user simulator to generate synthetic conversations. As a
proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos
built on LaMDA, and demonstrate its fluency and diverse functionality through
some illustrative example conversations.