ChatPaper.aiChatPaper

MemRerank: パーソナライズされた商品リランキングのための選好メモリ

MemRerank: Preference Memory for Personalized Product Reranking

March 31, 2026
著者: Zhiyuan Peng, Xuyang Wu, Huaixiao Tou, Yi Fang, Yi Gong
cs.AI

要旨

LLMベースのショッピングエージェントは、パーソナライゼーションのために長い購入履歴とマルチターン対話への依存度を高めているが、生の履歴を単純にプロンプトに追加する手法は、ノイズ、長さ、関連性の不一致により、しばしば効果的ではない。本論文では、ユーザーの購入履歴を簡潔でクエリに依存しない信号に蒸留し、パーソナライズされた商品リランキングを実現する選好メモリフレームワーク「MemRerank」を提案する。この問題を研究するため、LLMベースの5択1選択タスクを中心としたエンドツーエンドのベンチマークと評価フレームワークを構築し、メモリの品質と下流のリランキング効用の両方を測定する。さらに、メモリ抽出器を強化学習(RL)で訓練し、下流のリランキング性能を教師信号として利用する。2つのLLMベースリランキングモデルを用いた実験では、MemRerankがメモリなし、生履歴、既存のメモリベースラインを一貫して上回り、5択1精度で最大+10.61ポイントの絶対的な向上を示した。これらの結果は、明示的な選好メモリが、エージェント型Eコマースシステムにおけるパーソナライゼーションの実用的かつ効果的な構成要素であることを示唆している。
English
LLM-based shopping agents increasingly rely on long purchase histories and multi-turn interactions for personalization, yet naively appending raw history to prompts is often ineffective due to noise, length, and relevance mismatch. We propose MemRerank, a preference memory framework that distills user purchase history into concise, query-independent signals for personalized product reranking. To study this problem, we build an end-to-end benchmark and evaluation framework centered on an LLM-based 1-in-5 selection task, which measures both memory quality and downstream reranking utility. We further train the memory extractor with reinforcement learning (RL), using downstream reranking performance as supervision. Experiments with two LLM-based rerankers show that MemRerank consistently outperforms no-memory, raw-history, and off-the-shelf memory baselines, yielding up to +10.61 absolute points in 1-in-5 accuracy. These results suggest that explicit preference memory is a practical and effective building block for personalization in agentic e-commerce systems.
PDF21April 3, 2026