Die Multi-Task-End-to-End-Schulung verbessert die konversationelle Empfehlung.
Multi-Task End-to-End Training Improves Conversational Recommendation
May 8, 2023
Autoren: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI
Zusammenfassung
In diesem Artikel analysieren wir die Leistung eines multitaskfähigen End-to-End-Transformer-Modells bei der Aufgabe der konversationellen Empfehlungen, die darauf abzielen, Empfehlungen basierend auf den expliziten Präferenzen eines Nutzers, die im Dialog geäußert werden, zu liefern. Während frühere Arbeiten in diesem Bereich komplexe Multi-Komponenten-Ansätze verwenden, bei denen die Dialogführung und die Empfehlung von Entitäten durch separate Komponenten behandelt werden, zeigen wir, dass ein einheitliches Transformer-Modell, basierend auf dem T5 Text-to-Text-Transformer-Modell, sowohl bei der Empfehlung relevanter Inhalte als auch bei der Generierung von Dialogtexten wettbewerbsfähig abschneiden kann. Wir feintunen unser Modell auf dem ReDIAL-Datensatz für konversationelle Filmempfehlungen und erstellen zusätzliche Trainingsaufgaben, die aus MovieLens abgeleitet sind (wie die Vorhersage von Filmattributen und verwandten Filmen basierend auf einem Eingabefilm), in einem Multitask-Lernsetting. Mithilfe einer Reihe von Untersuchungen zeigen wir, dass das in den zusätzlichen Aufgaben erworbene Wissen auf die konversationelle Umgebung übertragen wird, wobei jede Aufgabe zu einer Steigerung von 9 % bis 52 % in ihrem zugehörigen Untersuchungswert führt.
English
In this paper, we analyze the performance of a multitask end-to-end
transformer model on the task of conversational recommendations, which aim to
provide recommendations based on a user's explicit preferences expressed in
dialogue. While previous works in this area adopt complex multi-component
approaches where the dialogue management and entity recommendation tasks are
handled by separate components, we show that a unified transformer model, based
on the T5 text-to-text transformer model, can perform competitively in both
recommending relevant items and generating conversation dialogue. We fine-tune
our model on the ReDIAL conversational movie recommendation dataset, and create
additional training tasks derived from MovieLens (such as the prediction of
movie attributes and related movies based on an input movie), in a multitask
learning setting. Using a series of probe studies, we demonstrate that the
learned knowledge in the additional tasks is transferred to the conversational
setting, where each task leads to a 9%-52% increase in its related probe score.