ChatPaper.aiChatPaper

Het begrijpen van schaling van embeddings in collaboratieve filtering

Understanding Embedding Scaling in Collaborative Filtering

September 19, 2025
Auteurs: Zhuangzhuang He, Zhou Kaiyu, Haoyue Bai, Fengbin Zhu, Yonghui Yang
cs.AI

Samenvatting

Het opschalen van aanbevelingsmodellen naar grote aanbevelingsmodellen is een van de meest besproken onderwerpen geworden. Recente inspanningen richten zich op componenten die verder gaan dan het opschalen van de embeddingdimensie, omdat wordt aangenomen dat het opschalen van embeddings kan leiden tot prestatievermindering. Hoewel er enkele initiële observaties zijn gedaan over embeddings, blijft de oorzaak van hun niet-schaalbaarheid onduidelijk. Bovendien is het nog steeds een onontgonnen gebied of prestatievermindering optreedt bij verschillende soorten modellen en datasets. Wat betreft het effect van embeddingdimensies op de prestaties, voeren we grootschalige experimenten uit over 10 datasets met verschillende sparsiteitsniveaus en schalen, waarbij we 4 representatieve klassieke architecturen gebruiken. Verrassend observeren we twee nieuwe fenomenen: dubbelpiek en logaritmisch. Bij het eerste fenomeen verbetert de prestatie eerst naarmate de embeddingdimensie toeneemt, daalt vervolgens, stijgt opnieuw en neemt uiteindelijk af. Bij het tweede fenomeen vertoont het een perfecte logaritmische curve. Onze bijdragen zijn drievoudig. Ten eerste ontdekken we twee nieuwe fenomenen bij het opschalen van collaboratieve filteringsmodellen. Ten tweede krijgen we inzicht in de onderliggende oorzaken van het dubbelpiekfenomeen. Tot slot analyseren we theoretisch de ruisbestendigheid van collaboratieve filteringsmodellen, waarbij de resultaten overeenkomen met empirische observaties.
English
Scaling recommendation models into large recommendation models has become one of the most widely discussed topics. Recent efforts focus on components beyond the scaling embedding dimension, as it is believed that scaling embedding may lead to performance degradation. Although there have been some initial observations on embedding, the root cause of their non-scalability remains unclear. Moreover, whether performance degradation occurs across different types of models and datasets is still an unexplored area. Regarding the effect of embedding dimensions on performance, we conduct large-scale experiments across 10 datasets with varying sparsity levels and scales, using 4 representative classical architectures. We surprisingly observe two novel phenomenon: double-peak and logarithmic. For the former, as the embedding dimension increases, performance first improves, then declines, rises again, and eventually drops. For the latter, it exhibits a perfect logarithmic curve. Our contributions are threefold. First, we discover two novel phenomena when scaling collaborative filtering models. Second, we gain an understanding of the underlying causes of the double-peak phenomenon. Lastly, we theoretically analyze the noise robustness of collaborative filtering models, with results matching empirical observations.
PDF52September 23, 2025