ChatPaper.aiChatPaper

Pense Antes de Recomendar: Liberando o Poder Latente de Raciocínio para Recomendação Sequencial

Think Before Recommend: Unleashing the Latent Reasoning Power for Sequential Recommendation

March 28, 2025
Autores: Jiakai Tang, Sunhao Dai, Teng Shi, Jun Xu, Xu Chen, Wen Chen, Wu Jian, Yuning Jiang
cs.AI

Resumo

A Recomendação Sequencial (SeqRec) visa prever o próximo item ao capturar padrões sequenciais das interações históricas dos usuários, desempenhando um papel crucial em muitos sistemas de recomendação do mundo real. No entanto, as abordagens existentes adotam predominantemente um paradigma de computação direta para frente, onde o estado oculto final do codificador de sequência serve como a representação do usuário. Argumentamos que esse paradigma de inferência, devido à sua profundidade computacional limitada, luta para modelar a natureza complexa e em evolução das preferências dos usuários e carece de uma compreensão detalhada dos itens de cauda longa, levando a um desempenho subótimo. Para resolver esse problema, propomos o ReaRec, o primeiro framework de computação em tempo de inferência para sistemas de recomendação, que aprimora as representações dos usuários por meio de raciocínio implícito em múltiplos passos. Especificamente, o ReaRec alimenta autoregressivamente o último estado oculto da sequência no recomendador sequencial, enquanto incorpora embeddings de posição de raciocínio especial para desacoplar o espaço de codificação original dos itens do espaço de raciocínio em múltiplos passos. Além disso, introduzimos dois métodos de aprendizado baseados em raciocínio leves, o Aprendizado de Raciocínio por Conjunto (ERL) e o Aprendizado de Raciocínio Progressivo (PRL), para explorar ainda mais efetivamente o potencial de raciocínio do ReaRec. Experimentos extensivos em cinco conjuntos de dados públicos do mundo real e diferentes arquiteturas de SeqRec demonstram a generalidade e eficácia do nosso ReaRec proposto. Notavelmente, análises post-hoc revelam que o ReaRec eleva significativamente o teto de desempenho de múltiplas bases de recomendação sequencial em aproximadamente 30\%-50\%. Assim, acreditamos que este trabalho pode abrir um novo e promissor caminho para pesquisas futuras em computação em tempo de inferência para recomendação sequencial.
English
Sequential Recommendation (SeqRec) aims to predict the next item by capturing sequential patterns from users' historical interactions, playing a crucial role in many real-world recommender systems. However, existing approaches predominantly adopt a direct forward computation paradigm, where the final hidden state of the sequence encoder serves as the user representation. We argue that this inference paradigm, due to its limited computational depth, struggles to model the complex evolving nature of user preferences and lacks a nuanced understanding of long-tail items, leading to suboptimal performance. To address this issue, we propose ReaRec, the first inference-time computing framework for recommender systems, which enhances user representations through implicit multi-step reasoning. Specifically, ReaRec autoregressively feeds the sequence's last hidden state into the sequential recommender while incorporating special reasoning position embeddings to decouple the original item encoding space from the multi-step reasoning space. Moreover, we introduce two lightweight reasoning-based learning methods, Ensemble Reasoning Learning (ERL) and Progressive Reasoning Learning (PRL), to further effectively exploit ReaRec's reasoning potential. Extensive experiments on five public real-world datasets and different SeqRec architectures demonstrate the generality and effectiveness of our proposed ReaRec. Remarkably, post-hoc analyses reveal that ReaRec significantly elevates the performance ceiling of multiple sequential recommendation backbones by approximately 30\%-50\%. Thus, we believe this work can open a new and promising avenue for future research in inference-time computing for sequential recommendation.

Summary

AI-Generated Summary

PDF352March 31, 2025