ChatPaper.aiChatPaper

Aprovechamiento de Modelos de Lenguaje de Gran Escala en Sistemas de Recomendación Conversacionales

Leveraging Large Language Models in Conversational Recommender Systems

May 13, 2023
Autores: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI

Resumen

Un Sistema de Recomendación Conversacional (CRS, por sus siglas en inglés) ofrece mayor transparencia y control a los usuarios al permitirles interactuar con el sistema a través de un diálogo en tiempo real de múltiples turnos. Recientemente, los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han demostrado una capacidad sin precedentes para conversar de manera natural e incorporar conocimiento del mundo y razonamiento de sentido común en la comprensión del lenguaje, desbloqueando el potencial de este paradigma. Sin embargo, aprovechar eficazmente los LLMs dentro de un CRS introduce nuevos desafíos técnicos, como comprender y controlar adecuadamente una conversación compleja y recuperar información de fuentes externas. Estos problemas se ven agravados por un corpus de elementos grande y en constante evolución, así como por la falta de datos conversacionales para el entrenamiento. En este artículo, proporcionamos una hoja de ruta para construir un CRS de gran escala de extremo a extremo utilizando LLMs. En particular, proponemos nuevas implementaciones para la comprensión de preferencias del usuario, la gestión flexible del diálogo y recomendaciones explicables como parte de una arquitectura integrada impulsada por LLMs. Para mejorar la personalización, describimos cómo un LLM puede consumir perfiles de usuario en lenguaje natural interpretable y utilizarlos para modular el contexto a nivel de sesión. Para superar las limitaciones de datos conversacionales en ausencia de un CRS en producción existente, proponemos técnicas para construir un simulador de usuario basado en LLMs controlable que genere conversaciones sintéticas. Como prueba de concepto, presentamos RecLLM, un CRS de gran escala para videos de YouTube construido sobre LaMDA, y demostramos su fluidez y funcionalidad diversa a través de algunas conversaciones ilustrativas.
English
A Conversational Recommender System (CRS) offers increased transparency and control to users by enabling them to engage with the system through a real-time multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an unprecedented ability to converse naturally and incorporate world knowledge and common-sense reasoning into language understanding, unlocking the potential of this paradigm. However, effectively leveraging LLMs within a CRS introduces new technical challenges, including properly understanding and controlling a complex conversation and retrieving from external sources of information. These issues are exacerbated by a large, evolving item corpus and a lack of conversational data for training. In this paper, we provide a roadmap for building an end-to-end large-scale CRS using LLMs. In particular, we propose new implementations for user preference understanding, flexible dialogue management and explainable recommendations as part of an integrated architecture powered by LLMs. For improved personalization, we describe how an LLM can consume interpretable natural language user profiles and use them to modulate session-level context. To overcome conversational data limitations in the absence of an existing production CRS, we propose techniques for building a controllable LLM-based user simulator to generate synthetic conversations. As a proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos built on LaMDA, and demonstrate its fluency and diverse functionality through some illustrative example conversations.
PDF30December 15, 2024