ChatPaper.aiChatPaper

MemRerank: Memoria de Preferencias para la Reordenación Personalizada de Productos

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
Autores: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

Resumen

Los agentes de compras basados en LLM dependen cada vez más de historiales de compras extensos e interacciones multiturno para la personalización, pero añadir crudamente el historial en bruto a los prompts suele ser ineficaz debido al ruido, la longitud y la falta de relevancia. Proponemos MemRerank, un marco de memoria de preferencias que destila el historial de compras del usuario en señales concisas e independientes de la consulta para el reranking personalizado de productos. Para estudiar este problema, construimos un benchmark integral y un marco de evaluación centrados en una tarea de selección 1-de-5 basada en LLM, que mide tanto la calidad de la memoria como la utilidad del reranking resultante. Entrenamos además el extractor de memoria con aprendizaje por refuerzo (RL), utilizando el rendimiento del reranking como supervisión. Los experimentos con dos sistemas de reranking basados en LLM muestran que MemRerank supera consistentemente a los baselines sin memoria, con historial en bruto y con memorias estándar, logrando hasta +10.61 puntos absolutos en precisión 1-de-5. Estos resultados sugieren que la memoria explícita de preferencias es un componente práctico y efectivo para la personalización en sistemas de comercio electrónico agentivos.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026