ChatPaper.aiChatPaper

El entrenamiento de extremo a extremo multitarea mejora la recomendación conversacional.

Multi-Task End-to-End Training Improves Conversational Recommendation

May 8, 2023
Autores: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI

Resumen

En este artículo, analizamos el rendimiento de un modelo transformador multitarea de extremo a extremo en la tarea de recomendaciones conversacionales, cuyo objetivo es proporcionar recomendaciones basadas en las preferencias explícitas de un usuario expresadas en un diálogo. Mientras que trabajos previos en esta área adoptan enfoques multicomponente complejos, donde las tareas de gestión del diálogo y recomendación de entidades son manejadas por componentes separados, demostramos que un modelo transformador unificado, basado en el modelo transformador de texto a texto T5, puede desempeñarse de manera competitiva tanto en la recomendación de elementos relevantes como en la generación de diálogos conversacionales. Ajustamos nuestro modelo en el conjunto de datos de recomendación de películas conversacionales ReDIAL y creamos tareas de entrenamiento adicionales derivadas de MovieLens (como la predicción de atributos de películas y películas relacionadas basadas en una película de entrada), en un entorno de aprendizaje multitarea. Mediante una serie de estudios de sondeo, demostramos que el conocimiento aprendido en las tareas adicionales se transfiere al entorno conversacional, donde cada tarea conduce a un aumento del 9% al 52% en su puntuación de sondeo relacionada.
English
In this paper, we analyze the performance of a multitask end-to-end transformer model on the task of conversational recommendations, which aim to provide recommendations based on a user's explicit preferences expressed in dialogue. While previous works in this area adopt complex multi-component approaches where the dialogue management and entity recommendation tasks are handled by separate components, we show that a unified transformer model, based on the T5 text-to-text transformer model, can perform competitively in both recommending relevant items and generating conversation dialogue. We fine-tune our model on the ReDIAL conversational movie recommendation dataset, and create additional training tasks derived from MovieLens (such as the prediction of movie attributes and related movies based on an input movie), in a multitask learning setting. Using a series of probe studies, we demonstrate that the learned knowledge in the additional tasks is transferred to the conversational setting, where each task leads to a 9%-52% increase in its related probe score.
PDF10December 15, 2024