ChatPaper.aiChatPaper

Modelos de Linguagem de Grande Porte são Recomendadores Competitivos em Condições Quase de Início Frio para Preferências Baseadas em Linguagem e Itens

Large Language Models are Competitive Near Cold-start Recommenders for Language- and Item-based Preferences

July 26, 2023
Autores: Scott Sanner, Krisztian Balog, Filip Radlinski, Ben Wedin, Lucas Dixon
cs.AI

Resumo

Os sistemas tradicionais de recomendação utilizam o histórico de preferências de itens dos usuários para sugerir novos conteúdos que eles possam gostar. No entanto, as interfaces modernas de diálogo que permitem aos usuários expressar preferências baseadas em linguagem oferecem uma modalidade fundamentalmente diferente para a entrada de preferências. Inspirados pelos recentes sucessos dos paradigmas de _prompting_ para modelos de linguagem de grande escala (LLMs), estudamos seu uso para fazer recomendações a partir de preferências baseadas tanto em itens quanto em linguagem, em comparação com métodos state-of-the-art de filtragem colaborativa (CF) baseada em itens. Para apoiar essa investigação, coletamos um novo conjunto de dados que consiste em preferências baseadas em itens e em linguagem, obtidas de usuários, juntamente com suas avaliações sobre uma variedade de itens recomendados (tendenciosos) e itens aleatórios (não tendenciosos). Dentre os diversos resultados experimentais, descobrimos que os LLMs oferecem um desempenho competitivo de recomendação para preferências puramente baseadas em linguagem (sem preferências de itens) em casos próximos ao _cold-start_, em comparação com métodos de CF baseados em itens, apesar de não terem treinamento supervisionado para essa tarefa específica (_zero-shot_) ou apenas algumas etiquetas (_few-shot_). Isso é particularmente promissor, pois as representações de preferências baseadas em linguagem são mais explicáveis e inspecionáveis do que as representações baseadas em itens ou vetores.
English
Traditional recommender systems leverage users' item preference history to recommend novel content that users may like. However, modern dialog interfaces that allow users to express language-based preferences offer a fundamentally different modality for preference input. Inspired by recent successes of prompting paradigms for large language models (LLMs), we study their use for making recommendations from both item-based and language-based preferences in comparison to state-of-the-art item-based collaborative filtering (CF) methods. To support this investigation, we collect a new dataset consisting of both item-based and language-based preferences elicited from users along with their ratings on a variety of (biased) recommended items and (unbiased) random items. Among numerous experimental results, we find that LLMs provide competitive recommendation performance for pure language-based preferences (no item preferences) in the near cold-start case in comparison to item-based CF methods, despite having no supervised training for this specific task (zero-shot) or only a few labels (few-shot). This is particularly promising as language-based preference representations are more explainable and scrutable than item-based or vector-based representations.
PDF90December 15, 2024