ChatPaper.aiChatPaper

QP-OneModel: унифицированная генеративная большая языковая модель для многозадачного понимания запросов в поисковой системе Xiaohongshu

QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search

February 10, 2026
Авторы: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI

Аннотация

Обработка запросов (OZ) связывает пользовательский интент с контентным предложением в крупномасштабных поисковых системах социальных сетей (SNS). Традиционные системы OZ используют конвейеры изолированных дискриминативных моделей (например, BERT), страдая от ограниченного семантического понимания и высоких эксплуатационных затрат. Хотя большие языковые модели (LLM) предлагают потенциальное решение, существующие подходы часто оптимизируют подзадачи изолированно, игнорируя внутреннюю семантическую синергию и требуя независимых итераций. Более того, стандартные генеративные методы часто лишены заземления в сценариях SNS, не способствуя преодолению разрыва между открыто-доменными корпусами и неформальными языковыми паттернами SNS, а также испытывая трудности с соблюдением строгих бизнес-определений. Мы представляем QP-OneModel — унифицированную генеративную LLM для многозадачного понимания запросов в домене SNS. Мы переформулируем гетерогенные подзадачи в унифицированную парадигму генерации последовательностей, применяя прогрессивную трехэтапную стратегию выравнивания, завершающуюся обучением с подкреплением с множественными вознаграждениями. Кроме того, QP-OneModel генерирует описания интентов как новую высокоточную семантическую сигнатуру, эффективно обогащая последующие задачи, такие как переформулирование запросов и ранжирование. Оффлайн-оценки показывают, что QP-OneModel достигает общего прироста в 7,35% по сравнению с дискриминативными базовыми моделями, со значительным увеличением F1 для NER (+9,01%) и взвешивания терминов (+9,31%). Модель также демонстрирует превосходную способность к обобщению, превосходя модель объемом 32B на 7,60% по точности на непредвиденных задачах. После полного внедрения в Xiaohongshu онлайн A/B-тесты подтвердили ее промышленную ценность, оптимизировав релевантность поиска (DCG) на 0,21% и повысив удержание пользователей на 0,044%.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
PDF61February 13, 2026