ChatPaper.aiChatPaper

Параллельное латентное рассуждение для последовательных рекомендаций

Parallel Latent Reasoning for Sequential Recommendation

January 6, 2026
Авторы: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang, Bo Zheng
cs.AI

Аннотация

Извлечение сложных пользовательских предпочтений из разреженных поведенческих последовательностей остается фундаментальной проблемой в последовательных рекомендательных системах. Современные методы латентного логического вывода показали перспективность за счет расширения вычислений во время тестирования через многошаговые рассуждения, однако они исключительно полагаются на масштабирование по глубине вдоль единственной траектории, страдая от затухающей отдачи при увеличении глубины рассуждений. Для преодоления этого ограничения мы предлагаем Parallel Latent Reasoning (PLR) — новую архитектуру, которая впервые реализует масштабирование вычислений по ширине за счет одновременного исследования множества разнообразных траекторий рассуждений. PLR конструирует параллельные потоки рассуждений через обучаемые триггерные токены в непрерывном латентном пространстве, сохраняет разнообразие между потоками с помощью глобальной регуляризации рассуждений и адаптивно синтезирует выходные данные множества потоков через агрегацию смеси потоков рассуждений. Экстенсивные эксперименты на трех реальных наборах данных демонстрируют, что PLR существенно превосходит современные базовые методы, сохраняя при этом эффективность вывода в реальном времени. Теоретический анализ дополнительно подтверждает эффективность параллельного логического вывода в улучшении обобщающей способности. Наша работа открывает новые пути для повышения логической емкости в последовательных рекомендательных системах за пределами существующего масштабирования по глубине.
English
Capturing complex user preferences from sparse behavioral sequences remains a fundamental challenge in sequential recommendation. Recent latent reasoning methods have shown promise by extending test-time computation through multi-step reasoning, yet they exclusively rely on depth-level scaling along a single trajectory, suffering from diminishing returns as reasoning depth increases. To address this limitation, we propose Parallel Latent Reasoning (PLR), a novel framework that pioneers width-level computational scaling by exploring multiple diverse reasoning trajectories simultaneously. PLR constructs parallel reasoning streams through learnable trigger tokens in continuous latent space, preserves diversity across streams via global reasoning regularization, and adaptively synthesizes multi-stream outputs through mixture-of-reasoning-streams aggregation. Extensive experiments on three real-world datasets demonstrate that PLR substantially outperforms state-of-the-art baselines while maintaining real-time inference efficiency. Theoretical analysis further validates the effectiveness of parallel reasoning in improving generalization capability. Our work opens new avenues for enhancing reasoning capacity in sequential recommendation beyond existing depth scaling.
PDF11January 8, 2026