ManCAR: Manifold-beperkt Latent Redeneren met Adaptieve Berekening tijdens Testtijd voor Sequentie-aanbeveling
ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation
February 23, 2026
Auteurs: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI
Samenvatting
Sequentiële aanbevelingssystemen maken in toenemende mate gebruik van latente meerstapsredenering om de rekentijd tijdens het testen te verbeteren. Ondanks empirische vooruitgang sturen bestaande benaderingen hun tussenliggende redeneerstaten voornamelijk aan via doelgedomineerde doelstellingen, zonder expliciete haalbaarheidsbeperkingen op te leggen. Dit resulteert in 'latent drift', waarbij redeneertrajecten afdrijven naar ongeloofwaardige regio's. Wij beargumenteren dat effectieve aanbevelingsredenering eerder moet worden gezien als navigatie op een collaboratieve variëteit (manifold) in plaats van als vrije latente verfijning. Hiertoe stellen wij ManCAR (Manifold-Constrained Adaptive Reasoning) voor, een principieel raamwerk dat redenering verankert binnen de topologie van een globale interactiegraaf. ManCAR construeert een eerdere intentieprior uit de collaboratieve omgeving van de recente acties van een gebruiker, gerepresenteerd als een verdeling over de item-simplex. Tijdens de training aligneert het model progressief zijn latente voorspellingsverdeling met deze prior, waardoor het redeneertraject wordt gedwongen binnen de geldige variëteit te blijven. Tijdens het testen verloopt de redenering adaptief totdat de voorspellingsverdeling stabiliseert, waardoor overmatige verfijning wordt vermeden. Wij geven een variationele interpretatie van ManCAR om de mechanismen voor driftpreventie en adaptieve stopzetting theoretisch te valideren. Experimenten op zeven benchmarks tonen aan dat ManCAR consistent de state-of-the-art basismodellen overtreft, met een relatieve verbetering tot 46,88% ten opzichte van NDCG@10. Onze code is beschikbaar op https://github.com/FuCongResearchSquad/ManCAR.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.