Aproveitando Modelos de Linguagem de Grande Escala em Sistemas de Recomendação Conversacionais
Leveraging Large Language Models in Conversational Recommender Systems
May 13, 2023
Autores: Luke Friedman, Sameer Ahuja, David Allen, Terry Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, Manoj Tiwari
cs.AI
Resumo
Um Sistema de Recomendação Conversacional (CRS, na sigla em inglês) oferece maior transparência e controle aos usuários, permitindo que eles interajam com o sistema por meio de um diálogo em tempo real e de múltiplas etapas. Recentemente, Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) demonstraram uma capacidade sem precedentes de conversar naturalmente e incorporar conhecimento do mundo e raciocínio de senso comum na compreensão da linguagem, desbloqueando o potencial desse paradigma. No entanto, aproveitar efetivamente os LLMs dentro de um CRS introduz novos desafios técnicos, incluindo a compreensão e o controle adequados de uma conversa complexa e a recuperação de fontes externas de informação. Esses problemas são exacerbados por um grande e dinâmico corpus de itens e pela falta de dados conversacionais para treinamento. Neste artigo, fornecemos um roteiro para a construção de um CRS de grande escala de ponta a ponta usando LLMs. Em particular, propomos novas implementações para compreensão das preferências do usuário, gerenciamento flexível de diálogo e recomendações explicáveis como parte de uma arquitetura integrada alimentada por LLMs. Para melhorar a personalização, descrevemos como um LLM pode consumir perfis de usuário interpretáveis em linguagem natural e usá-los para modular o contexto em nível de sessão. Para superar as limitações de dados conversacionais na ausência de um CRS de produção existente, propomos técnicas para construir um simulador de usuário baseado em LLM controlável para gerar conversas sintéticas. Como prova de conceito, apresentamos o RecLLM, um CRS de grande escala para vídeos do YouTube construído sobre o LaMDA, e demonstramos sua fluência e funcionalidade diversificada por meio de alguns exemplos ilustrativos de conversas.
English
A Conversational Recommender System (CRS) offers increased transparency and
control to users by enabling them to engage with the system through a real-time
multi-turn dialogue. Recently, Large Language Models (LLMs) have exhibited an
unprecedented ability to converse naturally and incorporate world knowledge and
common-sense reasoning into language understanding, unlocking the potential of
this paradigm. However, effectively leveraging LLMs within a CRS introduces new
technical challenges, including properly understanding and controlling a
complex conversation and retrieving from external sources of information. These
issues are exacerbated by a large, evolving item corpus and a lack of
conversational data for training. In this paper, we provide a roadmap for
building an end-to-end large-scale CRS using LLMs. In particular, we propose
new implementations for user preference understanding, flexible dialogue
management and explainable recommendations as part of an integrated
architecture powered by LLMs. For improved personalization, we describe how an
LLM can consume interpretable natural language user profiles and use them to
modulate session-level context. To overcome conversational data limitations in
the absence of an existing production CRS, we propose techniques for building a
controllable LLM-based user simulator to generate synthetic conversations. As a
proof of concept we introduce RecLLM, a large-scale CRS for YouTube videos
built on LaMDA, and demonstrate its fluency and diverse functionality through
some illustrative example conversations.