ChatPaper.aiChatPaper

Exploiter les modèles de langage de grande taille dans les systèmes de recommandation conversationnels

Leveraging Large Language Models in Conversational Recommender Systems

May 13, 2023
Auteurs: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI

Résumé

Un système de recommandation conversationnel (CRS) offre une transparence et un contrôle accrus aux utilisateurs en leur permettant d'interagir avec le système via un dialogue en temps réel à plusieurs tours. Récemment, les modèles de langage de grande taille (LLMs) ont démontré une capacité sans précédent à converser naturellement et à intégrer des connaissances du monde réel ainsi que des raisonnements de bon sens dans la compréhension du langage, débloquant ainsi le potentiel de ce paradigme. Cependant, exploiter efficacement les LLMs dans un CRS introduit de nouveaux défis techniques, notamment la compréhension et le contrôle appropriés d'une conversation complexe et l'accès à des sources d'information externes. Ces problèmes sont exacerbés par un corpus d'éléments vaste et évolutif ainsi que par un manque de données conversationnelles pour l'entraînement. Dans cet article, nous proposons une feuille de route pour construire un CRS à grande échelle de bout en bout utilisant des LLMs. En particulier, nous proposons de nouvelles implémentations pour la compréhension des préférences utilisateur, la gestion flexible des dialogues et les recommandations explicites dans le cadre d'une architecture intégrée alimentée par des LLMs. Pour une meilleure personnalisation, nous décrivons comment un LLM peut consommer des profils utilisateur interprétables en langage naturel et les utiliser pour moduler le contexte au niveau de la session. Pour surmonter les limitations des données conversationnelles en l'absence d'un CRS de production existant, nous proposons des techniques pour construire un simulateur d'utilisateur basé sur un LLM contrôlable afin de générer des conversations synthétiques. En tant que preuve de concept, nous présentons RecLLM, un CRS à grande échelle pour les vidéos YouTube construit sur LaMDA, et démontrons sa fluidité et sa fonctionnalité diversifiée à travers quelques exemples de conversations illustratifs.
English
A Conversational Recommender System (CRS) offers increased transparency and control to users by enabling them to engage with the system through a real-time multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an unprecedented ability to converse naturally and incorporate world knowledge and common-sense reasoning into language understanding, unlocking the potential of this paradigm. However, effectively leveraging LLMs within a CRS introduces new technical challenges, including properly understanding and controlling a complex conversation and retrieving from external sources of information. These issues are exacerbated by a large, evolving item corpus and a lack of conversational data for training. In this paper, we provide a roadmap for building an end-to-end large-scale CRS using LLMs. In particular, we propose new implementations for user preference understanding, flexible dialogue management and explainable recommendations as part of an integrated architecture powered by LLMs. For improved personalization, we describe how an LLM can consume interpretable natural language user profiles and use them to modulate session-level context. To overcome conversational data limitations in the absence of an existing production CRS, we propose techniques for building a controllable LLM-based user simulator to generate synthetic conversations. As a proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos built on LaMDA, and demonstrate its fluency and diverse functionality through some illustrative example conversations.
PDF30December 15, 2024