ChatPaper.aiChatPaper

ManCAR: 순차 추천을 위한 적응형 테스트 시간 계산을 통한 매니폴드 제약 잠재 추론

ManCAR: Manifold-Constrained Latent Reasoning with Adaptive Test-Time Computation for Sequential Recommendation

February 23, 2026
저자: Kun Yang, Yuxuan Zhu, Yazhe Chen, Siyao Zheng, Bangyang Hong, Kangle Wu, Yabo Ni, Anxiang Zeng, Cong Fu, Hui Li
cs.AI

초록

순차 추천에서는 테스트 시점 계산 효율을 높이기 위해 잠재적 다단계 추론을 점점 더 많이 활용하고 있습니다. 경험적으로 성능 향상이 확인됐음에도 불구하고, 기존 접근법들은 명시적인 실현 가능성 제약을 두지 않고 목표 지향적 목적함수로 중간 추론 상태를 주로 이끌어왔습니다. 이로 인해 추론 궤적이 비현실적인 영역으로 벗어나는 잠재적 표류(latent drift)가 발생합니다. 우리는 효과적인 추천 추론이 자유형식의 잠재적 정제가 아닌 협업 매니폴드 위의 탐색으로 간주되어야 한다고 주장합니다. 이를 위해 우리는 글로벌 상호작용 그래프의 위상 구조 내에서 추론을 정착시키는 원리 기반 프레임워크인 ManCAR(Manifold-Constrained Adaptive Reasoning)을 제안합니다. ManCAR은 사용자의 최근 행위들의 협업적 이웃 관계에서 국소 의도 사전 확률을 구성하며, 이는 아이템 단체(simplex)에 대한 분포로 표현됩니다. 학습 동안 모델은 자신의 잠재 예측 분포를 이 사전 확률과 점진적으로 정렬시켜 추론 궤적이 유효한 매니폴드 내에 머물도록 강제합니다. 테스트 시점에서는 예측 분포가 안정화될 때까지 추론이 적응적으로 진행되어 과도한 정제를 방지합니다. 우리는 ManCAR의 변분 해석을 제공하여 표류 방지 및 적응형 테스트 시점 정지 메커니즘을 이론적으로 입증합니다. 7개 벤치마크에 대한 실험 결과, ManCAR이 최신 기준 모델들을 꾸준히 능가하며 NDCG@10 기준 최대 46.88%의 상대적 성능 향상을 달성함을 보여줍니다. 우리의 코드는 https://github.com/FuCongResearchSquad/ManCAR에서 확인할 수 있습니다.
English
Sequential recommendation increasingly employs latent multi-step reasoning to enhance test-time computation. Despite empirical gains, existing approaches largely drive intermediate reasoning states via target-dominant objectives without imposing explicit feasibility constraints. This results in latent drift, where reasoning trajectories deviate into implausible regions. We argue that effective recommendation reasoning should instead be viewed as navigation on a collaborative manifold rather than free-form latent refinement. To this end, we propose ManCAR (Manifold-Constrained Adaptive Reasoning), a principled framework that grounds reasoning within the topology of a global interaction graph. ManCAR constructs a local intent prior from the collaborative neighborhood of a user's recent actions, represented as a distribution over the item simplex. During training, the model progressively aligns its latent predictive distribution with this prior, forcing the reasoning trajectory to remain within the valid manifold. At test time, reasoning proceeds adaptively until the predictive distribution stabilizes, avoiding over-refinement. We provide a variational interpretation of ManCAR to theoretically validate its drift-prevention and adaptive test-time stopping mechanisms. Experiments on seven benchmarks demonstrate that ManCAR consistently outperforms state-of-the-art baselines, achieving up to a 46.88% relative improvement w.r.t. NDCG@10. Our code is available at https://github.com/FuCongResearchSquad/ManCAR.
PDF181February 25, 2026