ChatPaper.aiChatPaper

Grote Taalmodellen zijn Concurrerende Near Cold-start Aanbevelingssystemen voor Taal- en Itemgebaseerde Voorkeuren

Large Language Models are Competitive Near Cold-start Recommenders for Language- and Item-based Preferences

July 26, 2023
Auteurs: Scott Sanner, Krisztian Balog, Filip Radlinski, Ben Wedin, Lucas Dixon
cs.AI

Samenvatting

Traditionele aanbevelingssystemen maken gebruik van de geschiedenis van gebruikersvoorkeuren voor items om nieuw inhoud aan te bevelen die gebruikers mogelijk leuk vinden. Moderne dialooginterfaces die gebruikers in staat stellen om op taal gebaseerde voorkeuren uit te drukken, bieden echter een fundamenteel andere modaliteit voor het invoeren van voorkeuren. Geïnspireerd door recente successen van prompting-paradigma's voor grote taalmodellen (LLMs), onderzoeken we het gebruik ervan voor het maken van aanbevelingen op basis van zowel itemgebaseerde als taalgebaseerde voorkeuren, in vergelijking met state-of-the-art itemgebaseerde collaboratieve filteringsmethoden (CF). Om dit onderzoek te ondersteunen, verzamelen we een nieuwe dataset die bestaat uit zowel itemgebaseerde als taalgebaseerde voorkeuren die zijn verzameld van gebruikers, samen met hun beoordelingen van een verscheidenheid aan (bevooroordeelde) aanbevolen items en (onbevooroordeelde) willekeurige items. Onder de talrijke experimentele resultaten vinden we dat LLMs een concurrerende aanbevelingsprestatie bieden voor puur taalgebaseerde voorkeuren (zonder itemvoorkeuren) in het bijna cold-start geval in vergelijking met itemgebaseerde CF-methoden, ondanks het ontbreken van gesuperviseerde training voor deze specifieke taak (zero-shot) of slechts een paar labels (few-shot). Dit is bijzonder veelbelovend omdat taalgebaseerde voorkeursrepresentaties beter verklaarbaar en controleerbaar zijn dan itemgebaseerde of vectorgebaseerde representaties.
English
Traditional recommender systems leverage users' item preference history to recommend novel content that users may like. However, modern dialog interfaces that allow users to express language-based preferences offer a fundamentally different modality for preference input. Inspired by recent successes of prompting paradigms for large language models (LLMs), we study their use for making recommendations from both item-based and language-based preferences in comparison to state-of-the-art item-based collaborative filtering (CF) methods. To support this investigation, we collect a new dataset consisting of both item-based and language-based preferences elicited from users along with their ratings on a variety of (biased) recommended items and (unbiased) random items. Among numerous experimental results, we find that LLMs provide competitive recommendation performance for pure language-based preferences (no item preferences) in the near cold-start case in comparison to item-based CF methods, despite having no supervised training for this specific task (zero-shot) or only a few labels (few-shot). This is particularly promising as language-based preference representations are more explainable and scrutable than item-based or vector-based representations.
PDF90December 15, 2024