ChatPaper.aiChatPaper

Крупные языковые модели конкурируют с рекомендательными системами, работающими в условиях, близких к "холодному старту", для предпочтений, основанных на языке и элементах.

Large Language Models are Competitive Near Cold-start Recommenders for Language- and Item-based Preferences

July 26, 2023
Авторы: Scott Sanner, Krisztian Balog, Filip Radlinski, Ben Wedin, Lucas Dixon
cs.AI

Аннотация

Традиционные системы рекомендаций используют историю предпочтений пользователей по элементам для предложения нового контента, который может им понравиться. Однако современные диалоговые интерфейсы, позволяющие пользователям выражать предпочтения на основе языка, предлагают принципиально иной способ ввода предпочтений. Вдохновленные недавними успехами парадигм подсказок для больших языковых моделей (LLM), мы исследуем их использование для формирования рекомендаций на основе как предпочтений по элементам, так и языковых предпочтений, в сравнении с передовыми методами коллаборативной фильтрации (CF) на основе элементов. Для поддержки этого исследования мы собираем новый набор данных, включающий как предпочтения по элементам, так и языковые предпочтения, полученные от пользователей, а также их оценки на различные (предвзятые) рекомендованные элементы и (непредвзятые) случайные элементы. Среди множества экспериментальных результатов мы обнаруживаем, что LLM демонстрируют конкурентоспособную производительность в рекомендациях для чистых языковых предпочтений (без предпочтений по элементам) в условиях, близких к холодному старту, по сравнению с методами CF на основе элементов, несмотря на отсутствие контролируемого обучения для этой конкретной задачи (zero-shot) или наличие лишь нескольких меток (few-shot). Это особенно перспективно, поскольку языковые представления предпочтений более объяснимы и прозрачны, чем представления на основе элементов или векторов.
English
Traditional recommender systems leverage users' item preference history to recommend novel content that users may like. However, modern dialog interfaces that allow users to express language-based preferences offer a fundamentally different modality for preference input. Inspired by recent successes of prompting paradigms for large language models (LLMs), we study their use for making recommendations from both item-based and language-based preferences in comparison to state-of-the-art item-based collaborative filtering (CF) methods. To support this investigation, we collect a new dataset consisting of both item-based and language-based preferences elicited from users along with their ratings on a variety of (biased) recommended items and (unbiased) random items. Among numerous experimental results, we find that LLMs provide competitive recommendation performance for pure language-based preferences (no item preferences) in the near cold-start case in comparison to item-based CF methods, despite having no supervised training for this specific task (zero-shot) or only a few labels (few-shot). This is particularly promising as language-based preference representations are more explainable and scrutable than item-based or vector-based representations.
PDF90December 15, 2024