ChatPaper.aiChatPaper

LLM-Rec: Personalisierte Empfehlungen durch Prompting von großen Sprachmodellen

LLM-Rec: Personalized Recommendation via Prompting Large Language Models

July 24, 2023
Autoren: Hanjia Lyu, Song Jiang, Hanqing Zeng, Yinglong Xia, Jiebo Luo
cs.AI

Zusammenfassung

Wir untersuchen verschiedene Prompting-Strategien zur Verbesserung der Leistung bei der personalisierten Inhaltsempfehlung mit großen Sprachmodellen (LLMs) durch Input-Augmentierung. Unser vorgeschlagener Ansatz, LLM-Rec genannt, umfasst vier verschiedene Prompting-Strategien: (1) einfaches Prompting, (2) empfehlungsgesteuertes Prompting, (3) engagement-gesteuertes Prompting und (4) empfehlungsgesteuertes + engagement-gesteuertes Prompting. Unsere empirischen Experimente zeigen, dass die Kombination der ursprünglichen Inhaltsbeschreibung mit dem durch LLM generierten augmentierten Input-Text unter Verwendung dieser Prompting-Strategien zu einer verbesserten Empfehlungsleistung führt. Dieser Befund unterstreicht die Bedeutung der Einbindung diverser Prompts und Input-Augmentierungstechniken, um die Empfehlungsfähigkeiten großer Sprachmodelle für die personalisierte Inhaltsempfehlung zu verbessern.
English
We investigate various prompting strategies for enhancing personalized content recommendation performance with large language models (LLMs) through input augmentation. Our proposed approach, termed LLM-Rec, encompasses four distinct prompting strategies: (1) basic prompting, (2) recommendation-driven prompting, (3) engagement-guided prompting, and (4) recommendation-driven + engagement-guided prompting. Our empirical experiments show that combining the original content description with the augmented input text generated by LLM using these prompting strategies leads to improved recommendation performance. This finding highlights the importance of incorporating diverse prompts and input augmentation techniques to enhance the recommendation capabilities with large language models for personalized content recommendation.
PDF274December 15, 2024