ChatPaper.aiChatPaper

ManCAR: Многообразие-ограниченное латентное рассуждение с адаптивными вычислениями в момент тестирования для последовательных рекомендаций

ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation

February 23, 2026
Авторы: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI

Аннотация

В последовательных рекомендательных системах все чаще применяется латентное многошаговое логическое выводы для улучшения вычислений во время тестирования. Несмотря на эмпирические успехи, существующие подходы в основном направляют промежуточные состояния логического вывода с помощью целеориентированных функций потерь без наложения явных ограничений на реализуемость. Это приводит к "латентному дрейфу", когда траектории рассуждений отклоняются в неправдоподобные области. Мы утверждаем, что эффективный логический вывод для рекомендаций следует рассматривать как навигацию по коллаборативному многообразию, а не как свободное латентное уточнение. С этой целью мы предлагаем ManCAR (Manifold-Constrained Adaptive Reasoning) — принципиальную框架, которая обосновывает логический вывод в рамках топологии глобального графа взаимодействий. ManCAR строит априорное распределение локальных намерений из коллаборативной окрестности недавних действий пользователя, представленное в виде распределения над симплексом элементов. В процессе обучения модель постепенно согласует свое латентное прогностическое распределение с этим априорным, вынуждая траекторию рассуждений оставаться в пределах допустимого многообразия. Во время тестирования логический вывод адаптивно продолжается до стабилизации прогностического распределения, избегая избыточного уточнения. Мы предоставляем вариационную интерпретацию ManCAR для теоретического обоснования его механизмов предотвращения дрейфа и адаптивной остановки при тестировании. Эксперименты на семи эталонных наборах данных показывают, что ManCAR последовательно превосходит современные базовые методы, достигая относительного улучшения до 46,88% по показателю NDCG@10. Наш код доступен по адресу https://github.com/FuCongResearchSquad/ManCAR.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.
PDF181February 25, 2026