ChatPaper.aiChatPaper

ManCAR: 逐次推薦のための適応的テスト時計算を備えた多様体制約付き潜在推論

ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation

February 23, 2026
著者: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI

要旨

逐次推薦システムでは、テスト時の計算効率を向上させるために、潜在的な多段階推論を採用するケースが増えている。経験的な性能向上にもかかわらず、既存手法の多くは、実現可能性に関する明示的な制約を課さずに、目標主導の目的関数によって中間推論状態を駆動している。これにより、推論軌道が実現不可能な領域に逸脱する「潜在ドリフト」が生じている。我々は、効果的な推薦推論は自由形式の潜在空間洗練ではなく、協調マニホールド上でのナビゲーションとして捉えるべきだと主張する。この目的のために、我々は推論を大域的な相互作用グラフの位相構造内に接地する原理的なフレームワーク、ManCAR(Manifold-Constrained Adaptive Reasoning)を提案する。ManCARは、ユーザーの直近の行動の協調的近傍から局所的な意図事前分布を構築し、それをアイテム単体上の分布として表現する。訓練中、モデルはその潜在的な予測分布をこの事前分布に漸進的に整合させ、推論軌道が有効なマニホールド内に留まることを強制する。テスト時には、予測分布が安定するまで推論を適応的に進め、過剰な洗練を回避する。我々はManCARの変分論的解釈を提供し、ドリフト防止と適応的テスト時停止メカニズムを理論的に検証する。7つのベンチマークによる実験では、ManCARが最先端のベースラインを一貫して上回り、NDCG@10において最大46.88%の相対的改善を達成することを実証した。コードはhttps://github.com/FuCongResearchSquad/ManCARで公開されている。
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.
PDF181February 25, 2026