O Treinamento Multi-Tarefa de Ponta a Ponta Melhora a Recomendação Conversacional
Multi-Task End-to-End Training Improves Conversational Recommendation
May 8, 2023
Autores: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI
Resumo
Neste artigo, analisamos o desempenho de um modelo transformer multitarefa de ponta a ponta na tarefa de recomendações conversacionais, que visa fornecer recomendações com base nas preferências explícitas de um usuário expressas em diálogo. Enquanto trabalhos anteriores nesta área adotam abordagens multicomponentes complexas, onde o gerenciamento do diálogo e a recomendação de entidades são tratados por componentes separados, mostramos que um modelo transformer unificado, baseado no modelo transformer de texto para texto T5, pode competir tanto na recomendação de itens relevantes quanto na geração de diálogos conversacionais. Ajustamos nosso modelo no conjunto de dados de recomendação de filmes conversacionais ReDIAL e criamos tarefas de treinamento adicionais derivadas do MovieLens (como a previsão de atributos de filmes e filmes relacionados com base em um filme de entrada), em um cenário de aprendizado multitarefa. Por meio de uma série de estudos de sondagem, demonstramos que o conhecimento aprendido nas tarefas adicionais é transferido para o cenário conversacional, onde cada tarefa resulta em um aumento de 9% a 52% em sua pontuação de sondagem relacionada.
English
In this paper, we analyze the performance of a multitask end-to-end
transformer model on the task of conversational recommendations, which aim to
provide recommendations based on a user's explicit preferences expressed in
dialogue. While previous works in this area adopt complex multi-component
approaches where the dialogue management and entity recommendation tasks are
handled by separate components, we show that a unified transformer model, based
on the T5 text-to-text transformer model, can perform competitively in both
recommending relevant items and generating conversation dialogue. We fine-tune
our model on the ReDIAL conversational movie recommendation dataset, and create
additional training tasks derived from MovieLens (such as the prediction of
movie attributes and related movies based on an input movie), in a multitask
learning setting. Using a series of probe studies, we demonstrate that the
learned knowledge in the additional tasks is transferred to the conversational
setting, where each task leads to a 9%-52% increase in its related probe score.