ChatPaper.aiChatPaper

Parallelle Latente Redenering voor Sequentieel Aanbevelen

Parallel Latent Reasoning for Sequential Recommendation

January 6, 2026
Auteurs: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang, Bo Zheng
cs.AI

Samenvatting

Het vastleggen van complexe gebruikersvoorkeuren uit schaarse gedragssequenties blijft een fundamentele uitdaging in sequentiële aanbevelingssystemen. Recente latente redeneermethoden hebben potentie getoond door berekening tijdens testtijd uit te breiden via meerstapsredenering, maar zij vertrouwen uitsluitend op schaling op diepteniveau langs een enkel traject en lijden onder afnemende meeropbrengsten naarmate de redeneringsdiepte toeneemt. Om deze beperking aan te pakken, stellen wij Parallel Latent Reasoning (PLR) voor, een nieuw kader dat baanbrekend is in computationele schaling op breedteniveau door meerdere diverse redeneertrajecten gelijktijdig te verkennen. PLR construeert parallelle redeneerstromen via leerbare trigger-tokens in continue latente ruimte, behoudt diversiteit tussen stromen via globale redeneringsregularisatie en synthetiseert adaptief multi-stroom uitkomsten door middel van mixture-of-reasoning-streams aggregatie. Uitgebreide experimenten op drie real-world datasets tonen aan dat PLR state-of-the-art baseline-methoden aanzienlijk overtreft, terwijl het real-time inferentie-efficiëntie behoudt. Theoretische analyse valideert verder de effectiviteit van parallel redeneren bij het verbeteren van generalisatievermogen. Ons werk opent nieuwe wegen voor het vergroten van redeneervermogen in sequentiële aanbevelingen voorbij bestaande diepteschaling.
English
Capturing complex user preferences from sparse behavioral sequences remains a fundamental challenge in sequential recommendation. Recent latent reasoning methods have shown promise by extending test-time computation through multi-step reasoning, yet they exclusively rely on depth-level scaling along a single trajectory, suffering from diminishing returns as reasoning depth increases. To address this limitation, we propose Parallel Latent Reasoning (PLR), a novel framework that pioneers width-level computational scaling by exploring multiple diverse reasoning trajectories simultaneously. PLR constructs parallel reasoning streams through learnable trigger tokens in continuous latent space, preserves diversity across streams via global reasoning regularization, and adaptively synthesizes multi-stream outputs through mixture-of-reasoning-streams aggregation. Extensive experiments on three real-world datasets demonstrate that PLR substantially outperforms state-of-the-art baselines while maintaining real-time inference efficiency. Theoretical analysis further validates the effectiveness of parallel reasoning in improving generalization capability. Our work opens new avenues for enhancing reasoning capacity in sequential recommendation beyond existing depth scaling.
PDF11January 8, 2026