ChatPaper.aiChatPaper

beeFormer: Преодоление разрыва между семантической и взаимодейственной схожестью в рекомендательных системах

beeFormer: Bridging the Gap Between Semantic and Interaction Similarity in Recommender Systems

September 16, 2024
Авторы: Vojtěch Vančura, Pavel Kordík, Milan Straka
cs.AI

Аннотация

Системы рекомендаций часто используют текстовую информацию для улучшения своих прогнозов, особенно в сценариях холодного старта или нулевой классификации, где традиционные подходы коллаборативной фильтрации не могут быть использованы. За последние годы было предложено множество подходов к извлечению текстовой информации для систем рекомендаций, причем наиболее известными являются модели предложений на основе трансформеров. Однако эти модели обучены предсказывать семантическую схожесть без использования данных взаимодействия с скрытыми шаблонами, специфичными для систем рекомендаций. В данной статье мы предлагаем beeFormer, фреймворк для обучения моделей предложений на основе трансформеров с использованием данных взаимодействия. Мы демонстрируем, что наши модели, обученные с помощью beeFormer, способны передавать знания между наборами данных, превосходя не только модели предложений на основе семантической схожести, но и традиционные методы коллаборативной фильтрации. Мы также показываем, что обучение на нескольких наборах данных из различных областей позволяет накапливать знания в одной модели, открывая возможность обучения универсальных, областно-независимых моделей предложений на основе трансформеров для извлечения текстовых представлений для систем рекомендаций. Мы выкладываем исходный код, обученные модели и дополнительные детали, позволяющие воспроизвести наши эксперименты на https://github.com/recombee/beeformer.
English
Recommender systems often use text-side information to improve their predictions, especially in cold-start or zero-shot recommendation scenarios, where traditional collaborative filtering approaches cannot be used. Many approaches to text-mining side information for recommender systems have been proposed over recent years, with sentence Transformers being the most prominent one. However, these models are trained to predict semantic similarity without utilizing interaction data with hidden patterns specific to recommender systems. In this paper, we propose beeFormer, a framework for training sentence Transformer models with interaction data. We demonstrate that our models trained with beeFormer can transfer knowledge between datasets while outperforming not only semantic similarity sentence Transformers but also traditional collaborative filtering methods. We also show that training on multiple datasets from different domains accumulates knowledge in a single model, unlocking the possibility of training universal, domain-agnostic sentence Transformer models to mine text representations for recommender systems. We release the source code, trained models, and additional details allowing replication of our experiments at https://github.com/recombee/beeformer.

Summary

AI-Generated Summary

PDF32November 16, 2024