MemRerank: Präferenzgedächtnis für personalisierte Produkt-Neubewertung
MemRerank: Preference Memory for Personalized Product Reranking
March 31, 2026
Autoren: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI
Zusammenfassung
LLM-basierte Shopping-Agenten setzen zunehmend auf lange Kaufhistorie und mehrschrittige Interaktionen zur Personalisierung. Das naive Anhängen von Rohdaten an Prompts ist jedoch oft aufgrund von Rauschen, Länge und Relevanzunterschieden ineffektiv. Wir schlagen MemRerank vor, ein Präferenzgedächtnis-Framework, das Nutzerkaufhistorie in prägnante, abfrageunabhängige Signale zur personalisierten Neusortierung von Produkten verdichtet. Um dieses Problem zu untersuchen, entwickeln wir einen End-to-End-Benchmark mit einer LLM-basierten 1-aus-5-Auswahlaufgabe, die sowohl Gedächtnisqualität als auch nachgelagerte Nützlichkeit misst. Wir trainieren den Gedächtnisextraktor weiterhin mit bestärkendem Lernen (RL), wobei die Neusortierungsleistung als Supervision dient. Experimente mit zwei LLM-basierten Neusortierern zeigen, dass MemRerank durchgängig Baseline-Ansätze ohne Gedächtnis, mit Rohhistorie und Standard-Gedächtnis übertrifft und bis zu +10,61 absolute Punkte in der 1-aus-5-Genauigkeit erzielt. Diese Ergebnisse legen nahe, dass explizites Präferenzgedächtnis ein praktischer und effektiver Baustein für Personalisierung in agentenbasierten E-Commerce-Systemen ist.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.