ChatPaper.aiChatPaper

Comprendre la mise à l'échelle des embeddings dans le filtrage collaboratif

Understanding Embedding Scaling in Collaborative Filtering

September 19, 2025
papers.authors: Zhuangzhuang He, Zhou Kaiyu, Haoyue Bai, Fengbin Zhu, Yonghui Yang
cs.AI

papers.abstract

La mise à l'échelle des modèles de recommandation en modèles de recommandation de grande taille est devenue l'un des sujets les plus largement discutés. Les efforts récents se concentrent sur des composants au-delà de la dimension d'embedding, car il est supposé que la mise à l'échelle des embeddings pourrait entraîner une dégradation des performances. Bien que certaines observations initiales aient été faites concernant les embeddings, la cause profonde de leur non-scalabilité reste incertaine. De plus, la question de savoir si la dégradation des performances se produit à travers différents types de modèles et de jeux de données reste un domaine inexploré. Concernant l'effet des dimensions d'embedding sur les performances, nous menons des expériences à grande échelle sur 10 jeux de données avec des niveaux de sparsité et des échelles variés, en utilisant 4 architectures classiques représentatives. Nous observons de manière surprenante deux phénomènes nouveaux : le double pic et le logarithmique. Pour le premier, à mesure que la dimension d'embedding augmente, les performances s'améliorent d'abord, puis déclinent, remontent à nouveau, et finissent par chuter. Pour le second, il présente une courbe logarithmique parfaite. Nos contributions sont triples. Premièrement, nous découvrons deux phénomènes nouveaux lors de la mise à l'échelle des modèles de filtrage collaboratif. Deuxièmement, nous comprenons les causes sous-jacentes du phénomène de double pic. Enfin, nous analysons théoriquement la robustesse au bruit des modèles de filtrage collaboratif, avec des résultats correspondant aux observations empiriques.
English
Scaling recommendation models into large recommendation models has become one of the most widely discussed topics. Recent efforts focus on components beyond the scaling embedding dimension, as it is believed that scaling embedding may lead to performance degradation. Although there have been some initial observations on embedding, the root cause of their non-scalability remains unclear. Moreover, whether performance degradation occurs across different types of models and datasets is still an unexplored area. Regarding the effect of embedding dimensions on performance, we conduct large-scale experiments across 10 datasets with varying sparsity levels and scales, using 4 representative classical architectures. We surprisingly observe two novel phenomenon: double-peak and logarithmic. For the former, as the embedding dimension increases, performance first improves, then declines, rises again, and eventually drops. For the latter, it exhibits a perfect logarithmic curve. Our contributions are threefold. First, we discover two novel phenomena when scaling collaborative filtering models. Second, we gain an understanding of the underlying causes of the double-peak phenomenon. Lastly, we theoretically analyze the noise robustness of collaborative filtering models, with results matching empirical observations.
PDF52September 23, 2025