ChatPaper.aiChatPaper

ManCAR: Razonamiento Latente con Restricción de Variedades y Computación Adaptativa en Tiempo de Prueba para Recomendación Secuencial

ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation

February 23, 2026
Autores: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI

Resumen

La recomendación secuencial emplea cada vez más el razonamiento latente de múltiples pasos para mejorar la computación en tiempo de prueba. A pesar de las ganancias empíricas, los enfoques existentes impulsan en gran medida los estados de razonamiento intermedios mediante objetivos dominados por el objetivo, sin imponer restricciones explícitas de viabilidad. Esto resulta en una deriva latente, donde las trayectorias de razonamiento se desvían hacia regiones implausibles. Sostenemos que el razonamiento efectivo para la recomendación debería verse en cambio como una navegación en una variedad colaborativa, en lugar de un refinamiento latente de forma libre. Con este fin, proponemos ManCAR (Razonamiento Adaptativo con Restricciones de Variedad), un marco fundamentado que ancla el razonamiento dentro de la topología de un grafo de interacción global. ManCAR construye un previo de intención local a partir del vecindario colaborativo de las acciones recientes de un usuario, representado como una distribución sobre el símplex de ítems. Durante el entrenamiento, el modelo alinea progresivamente su distribución predictiva latente con este previo, forzando a que la trayectoria de razonamiento permanezca dentro de la variedad válida. En tiempo de prueba, el razonamiento procede de manera adaptativa hasta que la distribución predictiva se estabiliza, evitando el sobre-refinamiento. Proporcionamos una interpretación variacional de ManCAR para validar teóricamente sus mecanismos de prevención de deriva y parada adaptativa en tiempo de prueba. Los experimentos en siete puntos de referencia demuestran que ManCAR supera consistentemente a los baselines de última generación, logrando una mejora relativa de hasta el 46.88% con respecto a NDCG@10. Nuestro código está disponible en https://github.com/FuCongResearchSquad/ManCAR.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.
PDF181February 25, 2026