ChatPaper.aiChatPaper

QP-OneModel : un modèle de langage génératif unifié pour la compréhension multi-tâches des requêtes dans la recherche Xiaohongshu

QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search

February 10, 2026
papers.authors: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI

papers.abstract

Le traitement des requêtes (QP) constitue un pont entre l'intention de l'utilisateur et l'offre de contenu dans les moteurs de recherche des services de réseaux sociaux (SNS) à grande échelle. Les systèmes QP traditionnels s'appuient sur des pipelines de modèles discriminatifs isolés (par exemple, BERT), souffrant d'une compréhension sémantique limitée et d'une charge de maintenance élevée. Bien que les modèles de langage de grande taille (LLM) offrent une solution potentielle, les approches existantes optimisent souvent les sous-tâches de manière isolée, négligeant la synergie sémantique intrinsèque et nécessitant des itérations indépendantes. De plus, les méthodes génératives standard manquent souvent d'ancrage dans les scénarios SNS, échouant à combler l'écart entre les corpus ouverts et les patterns linguistiques informels des SNS, tout en peinant à respecter des définitions métier rigoureuses. Nous présentons QP-OneModel, un LLM génératif unifié pour la compréhension multi-tâches des requêtes dans le domaine des SNS. Nous reformulons les sous-tâches hétérogènes en un paradigme unifié de génération de séquences, adoptant une stratégie d'alignement progressive en trois étapes culminant par un apprentissage par renforcement à récompenses multiples. Par ailleurs, QP-OneModel génère des descriptions d'intention comme nouveau signal sémantique à haute fidélité, augmentant efficacement des tâches en aval telles que la reformulation et le classement des requêtes. Les évaluations hors ligne montrent que QP-OneModel obtient un gain global de 7,35 % par rapport aux modèles de référence discriminatifs, avec des améliorations significatives du F1 pour la reconnaissance d'entités nommées (+9,01 %) et la pondération de termes (+9,31 %). Il présente également une généralisation supérieure, dépassant un modèle de 32B de 7,60 % en précision sur des tâches non vues. Entièrement déployé sur Xiaohongshu, les tests A/B en ligne confirment sa valeur industrielle, optimisant la pertinence du recouvrage (DCG) de 0,21 % et augmentant la rétention des utilisateurs de 0,044 %.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
PDF61February 13, 2026