ChatPaper.aiChatPaper

QP-OneModel:面向小红书搜索多任务查询理解的统一生成式大语言模型

QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search

February 10, 2026
Autori: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI

Abstract

L'Elaborazione delle Query (QP) funge da ponte tra l'intento dell'utente e l'offerta di contenuti nei motori di ricerca su larga scala per i Servizi di Social Network (SNS). I sistemi QP tradizionali si basano su pipeline di modelli discriminativi isolati (ad es. BERT), soffrendo di una comprensione semantica limitata e di un elevato sovraccarico di manutenzione. Sebbene i Large Language Model (LLM) offrano una potenziale soluzione, gli approcci esistenti spesso ottimizzano i sotto-task in modo isolato, trascurando la sinergia semantica intrinseca e rendendo necessarie iterazioni indipendenti. Inoltre, i metodi generativi standard spesso mancano di un ancoraggio agli scenari SNS, non riuscendo a colmare il divario tra i corpora a dominio aperto e i pattern linguistici informali dei SNS, e faticano ad aderire a rigorose definizioni di business. Presentiamo QP-OneModel, un LLM Generativo Unificato per la Comprensione Multi-Task delle Query nel dominio SNS. Riformuliamo sotto-task eterogenei in un paradigma unificato di generazione di sequenze, adottando una strategia di allineamento progressivo in tre fasi che culmina in un Reinforcement Learning multi-ricompensa. Inoltre, QP-OneModel genera descrizioni dell'intento come un nuovo segnale semantico ad alta fedeltà, aumentando efficacemente task a valle come la riscrittura e il ranking delle query. Valutazioni offline mostrano che QP-OneModel ottiene un miglioramento complessivo del 7,35% rispetto ai baseline discriminativi, con significativi incrementi F1 nel Riconoscimento di Entità Nominate (NER, +9,01%) e nella Pesatura dei Termini (Term Weighting, +9,31%). Mostra anche una generalizzazione superiore, superando un modello da 32B per accuratezza del 7,60% su task non visti. Pienamente implementato su Xiaohongshu, test A/B online ne confermano il valore industriale, ottimizzando la rilevanza del recupero (DCG) dello 0,21% e aumentando la fidelizzazione degli utenti dello 0,044%.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
PDF62March 10, 2026