ChatPaper.aiChatPaper

逐次推薦のための並列潜在推論

Parallel Latent Reasoning for Sequential Recommendation

January 6, 2026
著者: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang, Bo Zheng
cs.AI

要旨

逐次的行動履歴から複雑なユーザ選好を抽出することは、逐次推薦における根本的な課題である。近年の潜在推論手法は、多段階推論による推論時の計算拡張により有望な成果を示しているが、これらは単一軌道に沿った深さ方向のスケーリングに依存しており、推論深度の増加に伴う収穫逓減に悩まされている。この課題を解決するため、我々は複数の多様な推論軌道を同時に探索する幅方向の計算スケーリングを実現する新規フレームワーク「並列潜在推論(PLR)」を提案する。PLRは連続潜在空間における学習可能なトリガートークンを通じて並列推論ストリームを構築し、グローバルな推論正則化によりストリーム間の多様性を維持し、混合推論ストリーム集約により適応的にマルチストリーム出力を統合する。3つの実世界データセットを用いた大規模実験により、PLRが推論効率を維持しつつ既存の最先端手法を大幅に上回ることを実証する。理論分析からも、並列推論が一般化性能向上に有効であることが確認された。本研究は、深さ方向のスケーリングを超えた逐次推薦における推論能力強化の新たな道筋を拓くものである。
English
Capturing complex user preferences from sparse behavioral sequences remains a fundamental challenge in sequential recommendation. Recent latent reasoning methods have shown promise by extending test-time computation through multi-step reasoning, yet they exclusively rely on depth-level scaling along a single trajectory, suffering from diminishing returns as reasoning depth increases. To address this limitation, we propose Parallel Latent Reasoning (PLR), a novel framework that pioneers width-level computational scaling by exploring multiple diverse reasoning trajectories simultaneously. PLR constructs parallel reasoning streams through learnable trigger tokens in continuous latent space, preserves diversity across streams via global reasoning regularization, and adaptively synthesizes multi-stream outputs through mixture-of-reasoning-streams aggregation. Extensive experiments on three real-world datasets demonstrate that PLR substantially outperforms state-of-the-art baselines while maintaining real-time inference efficiency. Theoretical analysis further validates the effectiveness of parallel reasoning in improving generalization capability. Our work opens new avenues for enhancing reasoning capacity in sequential recommendation beyond existing depth scaling.
PDF11January 8, 2026