QP-OneModel:小红书搜索におけるマルチタスククエリ理解のための統合生成LLM
QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
February 10, 2026
著者: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI
要旨
クエリ処理(QP)は、大規模ソーシャルネットワークサービス(SNS)検索エンジンにおけるユーザー意図とコンテンツ供給を橋渡しする。従来のQPシステムは、分離された識別モデル(例:BERT)のパイプラインに依存しており、意味理解の限界と高い保守コストに悩まされている。大規模言語モデル(LLM)は潜在的な解決策を提供するが、既存のアプローチは部分タスクを個別に最適化することが多く、内在的な意味的相乗効果を無視し、独立した反復を必要とする。さらに、標準的な生成手法はSNSシナリオに根ざしておらず、オープンドメインコーパスと非公式なSNS言語パターンの間の隔たりを埋められず、厳格なビジネス定義への準拠にも苦戦する。本論文では、SNS領域におけるマルチタスククエリ理解のための統一生成LLMであるQP-OneModelを提案する。異種の部分タスクを統一された系列生成パラダイムに再定式化し、マルチ報酬強化学習を頂点とする段階的な3段階アライメント戦略を採用する。さらにQP-OneModelは、新しい高精度な意味信号として意図記述を生成し、クエリ書き換えやランキングなどの下流タスクを効果的に増強する。オフライン評価では、QP-OneModelが識別ベースラインを7.35%総合で上回り、NER(+9.01%)とTerm Weighting(+9.31%)で顕著なF1向上を示した。未見タスクにおいて32Bモデルを7.60%の精度で上回る優れた汎化性能も発揮する。小红书への完全導入後、オンラインA/Bテストでは検索関連性(DCG)0.21%向上、ユーザー定着率0.044%上昇を確認し、その産業的価値を実証した。
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.