QP-OneModel: Ein einheitliches generatives LLM für mehrteilige Aufgaben der Abfrageverständigung in der Xiaohongshu-Suche
QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
February 10, 2026
papers.authors: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI
papers.abstract
Abfrageverarbeitung (Query Processing, QP) bildet die Brücke zwischen Nutzerintention und Inhaltsbereitstellung in großangelegten Suchmaschinen für soziale Netzwerkdienste (Social Network Services, SNS). Herkömmliche QP-Systeme basieren auf Pipelines isolierter diskriminativer Modelle (z.B. BERT), die unter begrenztem semantischem Verständnis und hohem Wartungsaufwand leiden. Während Large Language Models (LLMs) eine potenzielle Lösung bieten, optimieren bestehende Ansätze häufig Teilaufgaben isoliert, vernachlässigen intrinsische semantische Synergien und erfordern unabhängige Iterationen. Darüber hinaus mangelt es standardmäßigen generativen Methoden oft an Verankerung in SNS-Szenarien, sodass sie die Lücke zwischen Open-Domain-Korpora und informellen SNS-Sprachmustern nicht überbrücken können, während sie gleichzeitig Schwierigkeiten haben, strengen Geschäftsdefinitionen zu folgen. Wir stellen QP-OneModel vor, ein vereinheitlichtes generatives LLM für Multi-Task-Abfrageverständnis im SNS-Bereich. Wir reformulieren heterogene Teilaufgaben in ein vereinheitlichtes Sequenzgenerierungsparadigma und setzen eine progressive Drei-Stufen-Abgleichsstrategie ein, die in einem Multi-Reward-Verstärkungslernen gipfelt. Zusätzlich generiert QP-OneModel Intent-Beschreibungen als neuartiges hochpräzises semantisches Signal, das Downstream-Aufgaben wie Abfragereformulierung und Ranking effektiv erweitert. Offline-Auswertungen zeigen, dass QP-OneModel einen Gesamtgewinn von 7,35 % gegenüber diskriminativen Baseline-Modellen erzielt, mit signifikanten F1-Steigerungen bei NER (+9,01 %) und Term Weighting (+9,31 %). Es weist zudem eine überlegene Generalisierungsfähigkeit auf und übertrifft ein 32B-Modell bei ungesehenen Aufgaben um 7,60 % an Genauigkeit. Vollständig bei Xiaohongshu eingesetzt, bestätigen Online-A/B-Tests seinen industriellen Wert durch eine Optimierung der Retrieval-Relevanz (DCG) um 0,21 % und eine Steigerung der Nutzerbindung um 0,044 %.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.