ChatPaper.aiChatPaper

CM^3: Калибровка мультимодальных рекомендательных систем

CM^3: Calibrating Multimodal Recommendation

August 2, 2025
Авторы: Xin Zhou, Yongjie Wang, Zhiqi Shen
cs.AI

Аннотация

Согласованность и равномерность являются фундаментальными принципами в области контрастного обучения. В рекомендательных системах предыдущие исследования установили, что оптимизация функции потерь Bayesian Personalized Ranking (BPR) способствует достижению целей согласованности и равномерности. В частности, согласованность направлена на сближение представлений взаимодействующих пользователей и элементов, тогда как равномерность требует равномерного распределения вложений пользователей и элементов на единичной гиперсфере. Данное исследование вновь рассматривает свойства согласованности и равномерности в контексте мультимодальных рекомендательных систем, выявляя склонность существующих моделей к приоритизации равномерности в ущерб согласованности. Наша гипотеза оспаривает традиционное предположение о равноправном отношении к элементам через функцию потерь равномерности, предлагая более тонкий подход, в котором элементы с похожими мультимодальными атрибутами сходятся к близким представлениям на гиперсферическом многообразии. В частности, мы используем внутреннее сходство мультимодальных данных элементов для калибровки их распределения равномерности, тем самым вызывая более выраженную силу отталкивания между различными сущностями в пространстве вложений. Теоретический анализ проясняет взаимосвязь между этой калиброванной функцией потерь равномерности и традиционной функцией равномерности. Кроме того, для улучшения слияния мультимодальных признаков мы вводим метод сферических кривых Безье, предназначенный для интеграции произвольного числа модальностей при условии, что результирующие объединенные признаки остаются ограниченными тем же гиперсферическим многообразием. Эмпирические оценки, проведенные на пяти реальных наборах данных, подтверждают превосходство нашего подхода над конкурирующими базовыми методами. Мы также показываем, что предложенные методы могут достичь увеличения производительности NDCG@20 до 5,4% за счет интеграции признаков, извлеченных с помощью MLLM. Исходный код доступен по адресу: https://github.com/enoche/CM3.
English
Alignment and uniformity are fundamental principles within the domain of contrastive learning. In recommender systems, prior work has established that optimizing the Bayesian Personalized Ranking (BPR) loss contributes to the objectives of alignment and uniformity. Specifically, alignment aims to draw together the representations of interacting users and items, while uniformity mandates a uniform distribution of user and item embeddings across a unit hypersphere. This study revisits the alignment and uniformity properties within the context of multimodal recommender systems, revealing a proclivity among extant models to prioritize uniformity to the detriment of alignment. Our hypothesis challenges the conventional assumption of equitable item treatment through a uniformity loss, proposing a more nuanced approach wherein items with similar multimodal attributes converge toward proximal representations within the hyperspheric manifold. Specifically, we leverage the inherent similarity between items' multimodal data to calibrate their uniformity distribution, thereby inducing a more pronounced repulsive force between dissimilar entities within the embedding space. A theoretical analysis elucidates the relationship between this calibrated uniformity loss and the conventional uniformity function. Moreover, to enhance the fusion of multimodal features, we introduce a Spherical B\'ezier method designed to integrate an arbitrary number of modalities while ensuring that the resulting fused features are constrained to the same hyperspherical manifold. Empirical evaluations conducted on five real-world datasets substantiate the superiority of our approach over competing baselines. We also shown that the proposed methods can achieve up to a 5.4% increase in NDCG@20 performance via the integration of MLLM-extracted features. Source code is available at: https://github.com/enoche/CM3.
PDF11August 8, 2025