다중 작업 종단 간 학습이 대화형 추천 성능을 향상시킨다
Multi-Task End-to-End Training Improves Conversational Recommendation
May 8, 2023
저자: Naveen Ram, Dima Kuzmin, Ellie Ka In Chio, Moustafa Farid Alzantot, Santiago Ontanon, Ambarish Jash, Judith Yue Li
cs.AI
초록
본 논문에서는 대화형 추천 작업, 즉 사용자가 대화에서 명시적으로 표현한 선호도를 기반으로 추천을 제공하는 작업에 대해 멀티태스크 종단간(end-to-end) 트랜스포머 모델의 성능을 분석합니다. 이 분야의 기존 연구들은 대화 관리와 엔티티 추천 작업을 별도의 구성 요소로 처리하는 복잡한 다중 구성 요소 접근 방식을 채택했지만, 본 연구에서는 T5 텍스트-텍스트 트랜스포머 모델을 기반으로 한 통합 트랜스포머 모델이 관련 항목을 추천하고 대화를 생성하는 두 작업 모두에서 경쟁력 있는 성능을 보일 수 있음을 입증합니다. 우리는 ReDIAL 대화형 영화 추천 데이터셋에서 모델을 미세 조정하고, MovieLens에서 파생된 추가 학습 작업(예: 입력 영화를 기반으로 한 영화 속성 및 관련 영화 예측)을 멀티태스크 학습 설정에서 생성합니다. 일련의 프로브 연구를 통해, 추가 작업에서 학습된 지식이 대화형 설정으로 전이되며, 각 작업이 관련 프로브 점수에서 9%~52%의 증가를 가져온다는 것을 보여줍니다.
English
In this paper, we analyze the performance of a multitask end-to-end
transformer model on the task of conversational recommendations, which aim to
provide recommendations based on a user's explicit preferences expressed in
dialogue. While previous works in this area adopt complex multi-component
approaches where the dialogue management and entity recommendation tasks are
handled by separate components, we show that a unified transformer model, based
on the T5 text-to-text transformer model, can perform competitively in both
recommending relevant items and generating conversation dialogue. We fine-tune
our model on the ReDIAL conversational movie recommendation dataset, and create
additional training tasks derived from MovieLens (such as the prediction of
movie attributes and related movies based on an input movie), in a multitask
learning setting. Using a series of probe studies, we demonstrate that the
learned knowledge in the additional tasks is transferred to the conversational
setting, where each task leads to a 9%-52% increase in its related probe score.