ManCAR: Ragionamento Latente Vincolato alla Varietà con Calcolo Adattivo al Momento del Test per la Raccomandazione Sequenziale
ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation
February 23, 2026
Autori: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI
Abstract
La raccomandazione sequenziale utilizza sempre più il ragionamento latente multi-step per migliorare il calcolo al momento del test. Nonostante i vantaggi empirici, gli approcci esistenti guidano principalmente gli stati di ragionamento intermedi tramite obiettivi dominati dal target senza imporre vincoli espliciti di fattibilità. Ciò risulta in una deriva latente, dove le traiettorie di ragionamento deviano in regioni implausibili. Sosteniamo che un ragionamento efficace per la raccomandazione dovrebbe invece essere visto come una navigazione su una varietà collaborativa piuttosto che come un raffinamento latente libero. A tal fine, proponiamo ManCAR (Manifold-Constrained Adaptive Reasoning), un framework principiato che ancorail ragionamento all'interno della topologia di un grafo di interazione globale. ManCAR costruisce un prior d'intento locale dal vicinato collaborativo delle azioni recenti di un utente, rappresentato come una distribuzione sul simplesso degli item. Durante l'addestramento, il modello allinea progressivamente la sua distribuzione predittiva latente con questo prior, forzando la traiettoria di ragionamento a rimanere all'interno della varietà valida. Al momento del test, il ragionamento procede in modo adattativo finché la distribuzione predittiva non si stabilizza, evitando un raffinamento eccessivo. Forniamo un'interpretazione variazionale di ManCAR per convalidare teoricamente i suoi meccanismi di prevenzione della deriva e di arresto adattativo al test. Esperimenti su sette benchmark dimostrano che ManCAR supera costantemente i baseline allo stato dell'arte, raggiungendo un miglioramento relativo fino al 46,88% rispetto a NDCG@10. Il nostro codice è disponibile all'indirizzo https://github.com/FuCongResearchSquad/ManCAR.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.