MemRerank: Память предпочтений для персонализированного переранжирования товаров
MemRerank: Preference Memory for Personalized Product Reranking
March 31, 2026
Авторы: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI
Аннотация
Покупательские агенты на основе больших языковых моделей (LLM) все чаще полагаются на длинные истории покупок и многоэтапные взаимодействия для персонализации, однако простое добавление необработанной истории в промты часто неэффективно из-за шума, длины и несоответствия релевантности. Мы предлагаем MemRerank — фреймворк памяти предпочтений, который преобразует историю покупок пользователя в краткие, независимые от запроса сигналы для персонализированного переранжирования товаров. Для изучения этой проблемы мы создали сквозной бенчмарк и оценочный фреймворк, сосредоточенный на задаче выбора 1 из 5 на основе LLM, который измеряет как качество памяти, так и полезность переранжирования на последующих этапах. Мы дополнительно обучаем экстрактор памяти с помощью обучения с подкреплением (RL), используя производительность переранжирования в качестве контроля. Эксперименты с двумя системами переранжирования на основе LLM показывают, что MemRerank стабильно превосходит базовые подходы без памяти, с необработанной историей и готовые решения для памяти, демонстрируя улучшение до +10,61 абсолютных процентных пункта в точности выбора 1 из 5. Эти результаты свидетельствуют о том, что явная память предпочтений является практичным и эффективным строительным блоком для персонализации в агентских электронных коммерческих системах.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.