ChatPaper.aiChatPaper

Rank-GRPO: Entrenamiento de Sistemas Conversacionales de Recomendación Basados en LLM con Aprendizaje por Refuerzo

Rank-GRPO: Training LLM-based Conversational Recommender Systems with Reinforcement Learning

October 23, 2025
Autores: Yaochen Zhu, Harald Steck, Dawen Liang, Yinhan He, Jundong Li, Nathan Kallus
cs.AI

Resumen

Los grandes modelos de lenguaje (LLM) están transformando el paradigma de los sistemas de recomendación al permitir que los usuarios expresen preferencias y reciban recomendaciones mediante conversaciones. Sin embargo, alinear estos modelos a la tarea de recomendación sigue siendo un desafío: los LLM preentrenados suelen generar elementos fuera del catálogo, incumplen los formatos de salida requeridos y su calidad de clasificación se degrada drásticamente hacia el final de la lista generada. Para abordar esto, proponemos ConvRec-R1, un marco de dos etapas para el entrenamiento de extremo a extremo de sistemas conversacionales de recomendación basados en LLM. En la Etapa 1, construimos un conjunto de datos de clonación conductual con una canalización Remapear-Reflexionar-Ajustar, que genera demostraciones de alta calidad y basadas en el catálogo a partir de LLMs de caja negra potentes para iniciar el entrenamiento por refuerzo. En la Etapa 2, proponemos Rank-GRPO, una extensión fundamentada de la optimización de políticas relativas por grupos (GRPO) adaptada a tareas con salidas de tipo ranking. Rank-GRPO trata cada posición en la lista de recomendaciones como unidad, en lugar del token (demasiado granular) o la secuencia (demasiado general), redefiniendo las recompensas para eliminar la asignación de crédito no causal e introduciendo una razón de importancia a nivel de rango basada en la media geométrica de las probabilidades de tokens por posición para estabilizar las actualizaciones de políticas. Los experimentos en el conjunto de datos público Reddit-v2 muestran que ConvRec-R1 converge más rápido y alcanza mayores valores de Recall y NDCG que los baselines de estilo GRPO. El código y los conjuntos de datos se publican en https://github.com/yaochenzhu/Rank-GRPO.
English
Large language models (LLMs) are reshaping the recommender system paradigm by enabling users to express preferences and receive recommendations through conversations. Yet, aligning LLMs to the recommendation task remains challenging: pretrained LLMs often generate out-of-catalog items, violate required output formats, and their ranking quality degrades sharply toward the end of the generated list. To this end, we propose ConvRec-R1, a two-stage framework for end-to-end training of LLM-based conversational recommender systems. In Stage 1, we construct a behavioral-cloning dataset with a Remap-Reflect-Adjust pipeline, which produces high-quality, catalog-grounded demonstrations from powerful blackbox LLMs to warm-start the RL training. In Stage 2, we propose Rank-GRPO, a principled extension of group relative policy optimization (GRPO) tailored to tasks with rank-style outputs. Rank-GRPO treats each rank in the recommendation list as the unit instead of token (too fine-grained) or sequence (too coarse), redefining rewards to remove non-causal credit assignment and introducing a rank-level importance ratio based on the geometric mean of rank-wise token probabilities to stabilize policy updates. Experiments on the public Reddit-v2 dataset show that ConvRec-R1 converges faster and achieves higher Recall and NDCG than GRPO-style baselines. Code and datasets are released at https://github.com/yaochenzhu/Rank-GRPO.
PDF42December 2, 2025