ChatPaper.aiChatPaper

MemRerank: Voorkeursgeheugen voor Gepersonaliseerde Herrangschikking van Producten

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
Auteurs: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

Samenvatting

LLM-gebaseerde winkelagenten vertrouwen steeds meer op lange aankoopgeschiedenissen en meerronde interacties voor personalisatie, maar het naïef toevoegen van ruwe geschiedenis aan prompts is vaak ineffectief vanwege ruis, lengte en relevantieverschillen. Wij stellen MemRerank voor, een voorkeursgeheugenraamwerk dat gebruikersaankoopgeschiedenis destilleert tot beknopte, query-onafhankelijke signalen voor gepersonaliseerde productherrangschikking. Om dit probleem te bestuderen, bouwen we een end-to-end benchmark en evaluatieraamwerk rond een op LLM gebaseerde 1-op-5-selectietaak, die zowel geheugenkwaliteit als downstream herrangschikkingsnut meet. We trainen de geheugenextractor verder met reinforcement learning (RL), waarbij downstream herrangschikkingsprestaties als supervisie dienen. Experimenten met twee LLM-gebaseerde herrangschikkers tonen aan dat MemRerank consequent beter presteert dan geen-geheugen, ruwe-geschiedenis en kant-en-klare geheugen-benchmarks, met een verbetering tot +10,61 absolute punten in 1-op-5 nauwkeurigheid. Deze resultaten suggereren dat expliciet voorkeursgeheugen een praktische en effectieve bouwsteen is voor personalisatie in agent-gebaseerde e-commercesystemen.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026