ChatPaper.aiChatPaper

beeFormer: Acortando la Brecha Entre la Similitud Semántica y de Interacción en Sistemas de Recomendación

beeFormer: Bridging the Gap Between Semantic and Interaction Similarity in Recommender Systems

September 16, 2024
Autores: Vojtěch Vančura, Pavel Kordík, Milan Straka
cs.AI

Resumen

Los sistemas de recomendación a menudo utilizan información textual para mejorar sus predicciones, especialmente en escenarios de recomendación de inicio en frío o de cero disparos, donde no se pueden utilizar enfoques tradicionales de filtrado colaborativo. En los últimos años, se han propuesto muchos enfoques para extraer información textual para sistemas de recomendación, siendo los Transformers de oraciones los más prominentes. Sin embargo, estos modelos están entrenados para predecir similitud semántica sin utilizar datos de interacción con patrones ocultos específicos de los sistemas de recomendación. En este documento, proponemos beeFormer, un marco para entrenar modelos de Transformers de oraciones con datos de interacción. Demostramos que nuestros modelos entrenados con beeFormer pueden transferir conocimiento entre conjuntos de datos, superando no solo a los Transformers de oraciones de similitud semántica, sino también a los métodos tradicionales de filtrado colaborativo. También mostramos que el entrenamiento en múltiples conjuntos de datos de diferentes dominios acumula conocimiento en un solo modelo, desbloqueando la posibilidad de entrenar modelos universales de Transformers de oraciones, agnósticos al dominio, para extraer representaciones textuales para sistemas de recomendación. Publicamos el código fuente, los modelos entrenados y detalles adicionales que permiten replicar nuestros experimentos en https://github.com/recombee/beeformer.
English
Recommender systems often use text-side information to improve their predictions, especially in cold-start or zero-shot recommendation scenarios, where traditional collaborative filtering approaches cannot be used. Many approaches to text-mining side information for recommender systems have been proposed over recent years, with sentence Transformers being the most prominent one. However, these models are trained to predict semantic similarity without utilizing interaction data with hidden patterns specific to recommender systems. In this paper, we propose beeFormer, a framework for training sentence Transformer models with interaction data. We demonstrate that our models trained with beeFormer can transfer knowledge between datasets while outperforming not only semantic similarity sentence Transformers but also traditional collaborative filtering methods. We also show that training on multiple datasets from different domains accumulates knowledge in a single model, unlocking the possibility of training universal, domain-agnostic sentence Transformer models to mine text representations for recommender systems. We release the source code, trained models, and additional details allowing replication of our experiments at https://github.com/recombee/beeformer.

Summary

AI-Generated Summary

PDF32November 16, 2024