ManCAR : Raisonnement latent sous contrainte de variété avec calcul adaptatif au moment du test pour la recommandation séquentielle
ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation
February 23, 2026
papers.authors: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI
papers.abstract
La recommandation séquentielle utilise de plus en plus le raisonnement latent multi-étapes pour améliorer les calculs au moment du test. Malgré des gains empiriques, les approches existantes pilotent largement les états de raisonnement intermédiaires via des objectifs dominés par la cible sans imposer de contraintes de faisabilité explicites. Cela entraîne une dérive latente, où les trajectoires de raisonnement dévient vers des régions peu plausibles. Nous soutenons qu'un raisonnement efficace pour la recommandation devrait plutôt être considéré comme une navigation sur une variété collaborative plutôt que comme un raffinement latent libre. À cette fin, nous proposons ManCAR (Manifold-Constrained Adaptive Reasoning), un cadre principiel qui ancre le raisonnement dans la topologie d'un graphe d'interaction global. ManCAR construit un a priori d'intention locale à partir du voisinage collaboratif des actions récentes d'un utilisateur, représenté comme une distribution sur le simplexe des items. Pendant l'entraînement, le modèle aligne progressivement sa distribution prédictive latente avec cet a priori, forçant la trajectoire de raisonnement à rester dans la variété valide. Au moment du test, le raisonnement procède de manière adaptative jusqu'à ce que la distribution prédictive se stabilise, évitant ainsi un sur-raffinement. Nous fournissons une interprétation variationnelle de ManCAR pour valider théoriquement ses mécanismes de prévention de la dérive et d'arrêt adaptatif au moment du test. Les expériences sur sept benchmarks démontrent que ManCAR surpasse constamment les méthodes de l'état de l'art, atteignant une amélioration relative allant jusqu'à 46,88 % par rapport au NDCG@10. Notre code est disponible à l'adresse https://github.com/FuCongResearchSquad/ManCAR.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.