ChatPaper.aiChatPaper

QP-OneModel:小红书搜索中多任务查询理解的统一生成式大语言模型

QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search

February 10, 2026
Autores: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI

Resumo

O Processamento de Consultas (QP) estabelece a ponte entre a intenção do utilizador e o fornecimento de conteúdo nos motores de busca de grande escala dos Serviços de Redes Sociais (SNS). Os sistemas tradicionais de QP baseiam-se em pipelines de modelos discriminativos isolados (por exemplo, BERT), sofrendo de compreensão semântica limitada e elevada sobrecarga de manutenção. Embora os Grandes Modelos de Linguagem (LLMs) ofereçam uma solução potencial, as abordagens existentes frequentemente otimizam sub-tarefas de forma isolada, negligenciando a sinergia semântica intrínseca e necessitando de iterações independentes. Além disso, os métodos generativos padrão frequentemente carecem de enquadramento em cenários de SNS, falhando em colmatar a lacuna entre os corpora de domínio aberto e os padrões linguísticos informais das SNS, ao mesmo tempo que lutam para aderir a definições empresariais rigorosas. Apresentamos o QP-OneModel, um LLM Generativo Unificado para Compreensão de Consultas Multi-Tarefa no domínio das SNS. Reformulamos sub-tarefas heterogéneas num paradigma unificado de geração de sequência, adotando uma estratégia de alinhamento progressiva em três fases que culmina em Aprendizagem por Reforço multi-recompensa. Adicionalmente, o QP-OneModel gera descrições de intenção como um novo sinal semântico de alta fidelidade, aumentando eficazmente tarefas subsequentes como a reformulação de consultas e a ordenação de resultados. Avaliações offline mostram que o QP-OneModel alcança um ganho global de 7,35% face a linhas de base discriminativas, com melhorias significativas de F1 no Reconhecimento de Entidades Nomeadas (+9,01%) e na Ponderação de Termos (+9,31%). Exibe também uma generalização superior, superando um modelo de 32B em 7,60% de precisão em tarefas não vistas. Totalmente implementado no Xiaohongshu, testes A/B online confirmam o seu valor industrial, otimizando a relevância na recuperação (DCG) em 0,21% e aumentando a retenção de utilizadores em 0,044%.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
PDF62March 10, 2026