Het verfijnen van contrastief leren en homografie-relaties voor multi-modale aanbevelingen
Refining Contrastive Learning and Homography Relations for Multi-Modal Recommendation
August 19, 2025
Auteurs: Shouxing Ma, Yawen Zeng, Shiqing Wu, Guandong Xu
cs.AI
Samenvatting
Multi-modale aanbevelingssystemen richten zich op het benutten van rijke modale informatie (zoals afbeeldingen en tekstuele beschrijvingen) van items om de aanbevelingsprestaties te verbeteren. De huidige methoden hebben opmerkelijke successen behaald dankzij de krachtige structuurmodelleringscapaciteit van grafische neurale netwerken. Deze methoden worden echter vaak belemmerd door schaarse data in realistische scenario's. Hoewel contrastief leren en homografie (d.w.z. homogene grafieken) worden ingezet om de uitdaging van dataschaarste aan te pakken, lijden bestaande methoden nog steeds aan twee belangrijke beperkingen: 1) Eenvoudige contrasten van multi-modale kenmerken produceren geen effectieve representaties, wat resulteert in ruis in modaal-gedeelde kenmerken en verlies van waardevolle informatie in modaal-unieke kenmerken; 2) Het gebrek aan exploratie van de homografische relaties tussen gebruikersinteresses en item-co-voorkomens leidt tot onvolledige ontginning van de interactie tussen gebruikers en items.
Om deze beperkingen aan te pakken, stellen we een nieuw framework voor voor het VERfijnen van multi-modAal contrastief leren en homografie-relaties (REARM). Specifiek vullen we multi-modale contrastieve leren aan door meta-netwerk en orthogonale beperkingsstrategieën te gebruiken, die ruis in modaal-gedeelde kenmerken filteren en aanbevelingsrelevante informatie in modaal-unieke kenmerken behouden. Om homogene relaties effectief te ontginnen, integreren we een nieuw geconstrueerde gebruikersinteresse-grafiek en een item-co-voorkomensgrafiek met de bestaande gebruikers-co-voorkomens- en itemsemantische grafieken voor grafisch leren. De uitgebreide experimenten op drie real-world datasets demonstreren de superioriteit van REARM ten opzichte van verschillende state-of-the-art baselines. Onze visualisatie toont verder een verbetering die REARM heeft gemaakt in het onderscheiden van modaal-gedeelde en modaal-unieke kenmerken. Code is beschikbaar op https://github.com/MrShouxingMa/REARM{hier}.
English
Multi-modal recommender system focuses on utilizing rich modal information (
i.e., images and textual descriptions) of items to improve recommendation
performance. The current methods have achieved remarkable success with the
powerful structure modeling capability of graph neural networks. However, these
methods are often hindered by sparse data in real-world scenarios. Although
contrastive learning and homography ( i.e., homogeneous graphs) are employed to
address the data sparsity challenge, existing methods still suffer two main
limitations: 1) Simple multi-modal feature contrasts fail to produce effective
representations, causing noisy modal-shared features and loss of valuable
information in modal-unique features; 2) The lack of exploration of the
homograph relations between user interests and item co-occurrence results in
incomplete mining of user-item interplay.
To address the above limitations, we propose a novel framework for
REfining multi-modAl contRastive learning
and hoMography relations (REARM). Specifically, we complement
multi-modal contrastive learning by employing meta-network and orthogonal
constraint strategies, which filter out noise in modal-shared features and
retain recommendation-relevant information in modal-unique features. To mine
homogeneous relationships effectively, we integrate a newly constructed user
interest graph and an item co-occurrence graph with the existing user
co-occurrence and item semantic graphs for graph learning. The extensive
experiments on three real-world datasets demonstrate the superiority of REARM
to various state-of-the-art baselines. Our visualization further shows an
improvement made by REARM in distinguishing between modal-shared and
modal-unique features. Code is available
https://github.com/MrShouxingMa/REARM{here}.