ChatPaper.aiChatPaper

O Treinamento Multi-Tarefa de Ponta a Ponta Melhora a Recomendação Conversacional

Multi-Task End-to-End Training Improves Conversational Recommendation

May 8, 2023
Autores: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI

Resumo

Neste artigo, analisamos o desempenho de um modelo transformer multitarefa de ponta a ponta na tarefa de recomendações conversacionais, que visa fornecer recomendações com base nas preferências explícitas de um usuário expressas em diálogo. Enquanto trabalhos anteriores nesta área adotam abordagens multicomponentes complexas, onde o gerenciamento do diálogo e a recomendação de entidades são tratados por componentes separados, mostramos que um modelo transformer unificado, baseado no modelo transformer de texto para texto T5, pode competir tanto na recomendação de itens relevantes quanto na geração de diálogos conversacionais. Ajustamos nosso modelo no conjunto de dados de recomendação de filmes conversacionais ReDIAL e criamos tarefas de treinamento adicionais derivadas do MovieLens (como a previsão de atributos de filmes e filmes relacionados com base em um filme de entrada), em um cenário de aprendizado multitarefa. Por meio de uma série de estudos de sondagem, demonstramos que o conhecimento aprendido nas tarefas adicionais é transferido para o cenário conversacional, onde cada tarefa resulta em um aumento de 9% a 52% em sua pontuação de sondagem relacionada.
English
In this paper, we analyze the performance of a multitask end-to-end transformer model on the task of conversational recommendations, which aim to provide recommendations based on a user's explicit preferences expressed in dialogue. While previous works in this area adopt complex multi-component approaches where the dialogue management and entity recommendation tasks are handled by separate components, we show that a unified transformer model, based on the T5 text-to-text transformer model, can perform competitively in both recommending relevant items and generating conversation dialogue. We fine-tune our model on the ReDIAL conversational movie recommendation dataset, and create additional training tasks derived from MovieLens (such as the prediction of movie attributes and related movies based on an input movie), in a multitask learning setting. Using a series of probe studies, we demonstrate that the learned knowledge in the additional tasks is transferred to the conversational setting, where each task leads to a 9%-52% increase in its related probe score.
PDF10December 15, 2024