ChatPaper.aiChatPaper

MemRerank: Memória de Preferências para Reclassificação Personalizada de Produtos

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
Autores: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

Resumo

Os agentes de compras baseados em LLM dependem cada vez mais de históricos de compras longos e interações multiturno para personalização, porém, anexar ingenuamente o histórico bruto aos *prompts* geralmente é ineficaz devido a ruído, extensão e incompatibilidade de relevância. Propomos o MemRerank, uma estrutura de memória de preferências que destila o histórico de compras do usuário em sinais concisos e independentes de consulta para rerranqueamento personalizado de produtos. Para estudar esse problema, construímos um *benchmark* de ponta a ponta e uma estrutura de avaliação centrados em uma tarefa de seleção 1-em-5 baseada em LLM, que mede tanto a qualidade da memória quanto a utilidade do rerranqueamento subsequente. Treinamos ainda o extrator de memória com aprendizado por reforço (RL), usando o desempenho do rerranqueamento subsequente como supervisão. Experimentos com dois rerranqueadores baseados em LLM mostram que o MemRerank supera consistentemente as linhas de base sem memória, com histórico bruto e de memória prontas, resultando em até +10,61 pontos absolutos na precisão 1-em-5. Esses resultados sugerem que a memória explícita de preferências é um bloco de construção prático e eficaz para personalização em sistemas de *e-commerce* agentivos.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026