ChatPaper.aiChatPaper

MemRerank : Mémoire de préférences pour le reranking personnalisé de produits

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
Auteurs: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

Résumé

Les agents d'achat basés sur des LLM reposent de plus en plus sur des historiques d'achats longs et des interactions multi-tours pour la personnalisation. Cependant, ajouter naïvement l'historique brut aux invites est souvent inefficace en raison du bruit, de la longueur et du décalage de pertinence. Nous proposons MemRerank, un cadre de mémoire des préférences qui distille l'historique d'achats de l'utilisateur en signaux concis et indépendants de la requête pour un reranking personnalisé des produits. Pour étudier ce problème, nous construisons un benchmark de bout en bout et un cadre d'évaluation centrés sur une tâche de sélection 1-sur-5 basée sur un LLM, qui mesure à la fois la qualité de la mémoire et l'utilité du reranking en aval. Nous entraînons ensuite l'extracteur de mémoire par apprentissage par renforcement (RL), en utilisant la performance du reranking en aval comme supervision. Les expériences avec deux rerankeurs basés sur des LLM montrent que MemRerank surpasse constamment les bases de référence sans mémoire, à historique brut et à mémoire standard, obtenant jusqu'à +10,61 points absolus en précision 1-sur-5. Ces résultats suggèrent qu'une mémoire explicite des préférences est un élément pratique et efficace pour la personnalisation dans les systèmes e-commerce agentiques.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026