ChatPaper.aiChatPaper

MemRerank: Memoria delle Preferenze per il Riordinamento Personalizzato dei Prodotti

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
Autori: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

Abstract

Gli agenti di acquisto basati su LLM fanno sempre più affidamento su cronologie d'acquisto estese e interazioni multi-turno per la personalizzazione, tuttavia, l'aggiunta ingenua della cronologia grezza ai prompt si rivela spesso inefficace a causa di rumore, lunghezza e mancata corrispondenza della rilevanza. Proponiamo MemRerank, un framework di memoria delle preferenze che distilla la cronologia d'acquisto dell'utente in segnali concisi e indipendenti dalla query per un ricollocamento personalizzato dei prodotti. Per studiare questo problema, costruiamo un benchmark end-to-end e un framework di valutazione incentrati su un task di selezione 1-su-5 basato su LLM, che misura sia la qualità della memoria che l'utilità del ricollocamento a valle. Addestriamo ulteriormente l'estrattore di memoria con apprendimento per rinforzo (RL), utilizzando le prestazioni di ricollocamento a valle come supervisione. Esperimenti con due ricollocatori basati su LLM mostrano che MemRerank supera costantemente i baseline senza memoria, con cronologia grezza e memoria predefinita, ottenendo fino a +10,61 punti assoluti nell'accuratezza 1-su-5. Questi risultati suggeriscono che una memoria esplicita delle preferenze è un componente pratico ed efficace per la personalizzazione nei sistemi e-commerce agentivi.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026