ChatPaper.aiChatPaper

Razonamiento Latente Paralelo para la Recomendación Secuencial

Parallel Latent Reasoning for Sequential Recommendation

January 6, 2026
Autores: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang, Bo Zheng
cs.AI

Resumen

Capturar preferencias de usuario complejas a partir de secuencias de comportamiento dispersas sigue siendo un desafío fundamental en la recomendación secuencial. Los métodos recientes de razonamiento latente han mostrado potencial al extender el cómputo en tiempo de prueba mediante razonamiento multi-etapa, aunque dependen exclusivamente de escalado en profundidad a lo largo de una única trayectoria, sufriendo rendimientos decrecientes a medida que aumenta la profundidad del razonamiento. Para abordar esta limitación, proponemos Razonamiento Latente Paralelo (PLR), un marco novedoso que pionerea el escalado computacional en amplitud explorando múltiples trayectorias de razonamiento diversas simultáneamente. PLR construye flujos de razonamiento paralelos mediante tokens desencadenantes aprendibles en espacio latente continuo, preserva la diversidad entre flujos mediante regularización global de razonamiento, y sintetiza adaptativamente las salidas multi-flujo mediante agregación de mezcla de flujos de razonamiento. Experimentos exhaustivos en tres conjuntos de datos del mundo real demuestran que PLR supera sustancialmente los métodos de referencia más avanzados mientras mantiene una eficiencia de inferencia en tiempo real. El análisis teórico valida además la efectividad del razonamiento paralelo para mejorar la capacidad de generalización. Nuestro trabajo abre nuevas vías para mejorar la capacidad de razonamiento en recomendación secuencial más allá del escalado en profundidad existente.
English
Capturing complex user preferences from sparse behavioral sequences remains a fundamental challenge in sequential recommendation. Recent latent reasoning methods have shown promise by extending test-time computation through multi-step reasoning, yet they exclusively rely on depth-level scaling along a single trajectory, suffering from diminishing returns as reasoning depth increases. To address this limitation, we propose Parallel Latent Reasoning (PLR), a novel framework that pioneers width-level computational scaling by exploring multiple diverse reasoning trajectories simultaneously. PLR constructs parallel reasoning streams through learnable trigger tokens in continuous latent space, preserves diversity across streams via global reasoning regularization, and adaptively synthesizes multi-stream outputs through mixture-of-reasoning-streams aggregation. Extensive experiments on three real-world datasets demonstrate that PLR substantially outperforms state-of-the-art baselines while maintaining real-time inference efficiency. Theoretical analysis further validates the effectiveness of parallel reasoning in improving generalization capability. Our work opens new avenues for enhancing reasoning capacity in sequential recommendation beyond existing depth scaling.
PDF11January 8, 2026