MemRerank: 개인화된 상품 재순위를 위한 선호도 메모리
MemRerank: Preference Memory for Personalized Product Reranking
March 31, 2026
저자: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI
초록
LLM 기반 쇼핑 에이전트는 개인화를 위해 장기 구매 이력과 다중 턴 상호작용에 점점 더 의존하고 있지만, 원시 이력을 프롬프트에 단순히 추가하는 방식은 노이즈, 길이, 관련성 불일치로 인해 종종 비효율적입니다. 우리는 사용자 구매 이력을 간결하고 쿼리 독립적인 신호로 정제하여 개인화된 상품 재순위화에 활용하는 선호도 메모리 프레임워크인 MemRerank를 제안합니다. 이 문제를 연구하기 위해 LLM 기반 5选1 선택 과제를 중심으로 메모리 품질과 하류 재순위화 유용성을 모두 측정하는 종단 간 벤치마크 및 평가 프레임워크를 구축했습니다. 또한 하류 재순위화 성능을 감독 신호로 활용하여 강화 학습(RL)으로 메모리 추출기를 추가 학습합니다. 두 가지 LLM 기반 재순위화 모델을 사용한 실험에서 MemRerank는 메모리 미사용, 원시 이력 사용, 기존 메모리 베이스라인 대비 지속적으로 우수한 성능을 보였으며, 5选1 정확도에서 최대 +10.61%p의 절대적 향상을 달성했습니다. 이러한 결과는 명시적 선호도 메모리가 에이전트 기반 전자상거래 시스템에서 개인화를 위한 실용적이고 효과적인 구성 요소임을 시사합니다.
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.