ChatPaper.aiChatPaper

L'entraînement multi-tâches de bout en bout améliore la recommandation conversationnelle.

Multi-Task End-to-End Training Improves Conversational Recommendation

May 8, 2023
Auteurs: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI

Résumé

Dans cet article, nous analysons les performances d'un modèle de transformateur multitâche de bout en bout sur la tâche de recommandations conversationnelles, qui vise à fournir des suggestions basées sur les préférences explicites d'un utilisateur exprimées dans un dialogue. Alors que les travaux précédents dans ce domaine adoptent des approches multi-composants complexes où la gestion du dialogue et la recommandation d'entités sont traitées par des composants séparés, nous montrons qu'un modèle de transformateur unifié, basé sur le modèle de transformateur texte-à-texte T5, peut rivaliser à la fois en recommandant des éléments pertinents et en générant des dialogues conversationnels. Nous affinons notre modèle sur le jeu de données ReDIAL de recommandation conversationnelle de films, et créons des tâches d'entraînement supplémentaires dérivées de MovieLens (telles que la prédiction d'attributs de films et de films connexes basée sur un film d'entrée), dans un cadre d'apprentissage multitâche. À l'aide d'une série d'études de sondage, nous démontrons que les connaissances acquises dans les tâches supplémentaires sont transférées au cadre conversationnel, où chaque tâche entraîne une augmentation de 9 % à 52 % de son score de sondage associé.
English
In this paper, we analyze the performance of a multitask end-to-end transformer model on the task of conversational recommendations, which aim to provide recommendations based on a user's explicit preferences expressed in dialogue. While previous works in this area adopt complex multi-component approaches where the dialogue management and entity recommendation tasks are handled by separate components, we show that a unified transformer model, based on the T5 text-to-text transformer model, can perform competitively in both recommending relevant items and generating conversation dialogue. We fine-tune our model on the ReDIAL conversational movie recommendation dataset, and create additional training tasks derived from MovieLens (such as the prediction of movie attributes and related movies based on an input movie), in a multitask learning setting. Using a series of probe studies, we demonstrate that the learned knowledge in the additional tasks is transferred to the conversational setting, where each task leads to a 9%-52% increase in its related probe score.
PDF10December 15, 2024