ChatPaper.aiChatPaper

QP-OneModel: Een verenigd generatief LLM voor multi-task queryinterpretatie in Xiaohongshu-zoekopdrachten

QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search

February 10, 2026
Auteurs: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI

Samenvatting

Query Processing (QP) verbindt gebruikersintentie en contentaanbod in grootschalige zoekmachines voor Social Network Services (SNS). Traditionele QP-systemen vertrouwen op pipelines van geïsoleerde discriminerende modellen (bijv. BERT), wat leidt tot beperkt semantisch begrip en hoge onderhoudskosten. Hoewel Large Language Models (LLM's) een mogelijke oplossing bieden, optimaliseren bestaande benaderingen vaak sub-taken afzonderlijk, waarbij intrinsieke semantische synergie wordt verwaarloosd en onafhankelijke iteraties nodig zijn. Bovendien ontbreekt het standaard generatieve methoden vaak aan verankering in SNS-scenario's, waardoor de kloof tussen open-domein corpora en informele SNS-linguïstische patronen niet wordt overbrugd, terwijl ze moeite hebben zich aan strikte bedrijfsdefinities te houden. Wij presenteren QP-OneModel, een Unified Generative LLM voor Multi-Task Query Understanding in het SNS-domein. Wij herformuleren heterogene sub-taken naar een uniform sequentiegeneratieparadigma, waarbij een progressieve drietraps-aligneringsstrategie wordt toegepast die culmineert in multi-reward Reinforcement Learning. Verder genereert QP-OneModel intentiebeschrijvingen als een nieuwe hoogwaardige semantische signaal, waardoor downstream-taken zoals queryherformulering en ranking effectief worden versterkt. Offline evaluaties tonen aan dat QP-OneModel een algemene winst van 7,35% behaalt ten opzichte van discriminerende baseline-modellen, met significante F1-stijgingen in NER (+9,01%) en Term Weighting (+9,31%). Het model vertoont ook superieure generalisatie, door een 32B-model met 7,60% nauwkeurigheid te overtreffen op onzichtbare taken. Volledig geïmplementeerd bij Xiaohongshu, bevestigen online A/B-tests de industriële waarde, met een optimalisatie van retrievalrelevantie (DCG) met 0,21% en een verhoging van gebruikersretentie met 0,044%.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
PDF62March 10, 2026