QP-OneModel: Un Modelo Lingüístico Generativo Unificado para la Comprensión Multitarea de Consultas en la Búsqueda de Xiaohongshu
QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
February 10, 2026
Autores: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao
cs.AI
Resumen
El Procesamiento de Consultas (QP) actúa como puente entre la intención del usuario y el suministro de contenido en los motores de búsqueda de Servicios de Redes Sociales (SNS) a gran escala. Los sistemas QP tradicionales se basan en pipelines de modelos discriminativos aislados (por ejemplo, BERT), adoleciendo de una comprensión semántica limitada y una alta sobrecarga de mantenimiento. Si bien los Modelos de Lenguaje Grandes (LLMs) ofrecen una solución potencial, los enfoques existentes suelen optimizar sub-tareas de forma aislada, descuidando la sinergia semántica intrínseca y necesitando iteraciones independientes. Además, los métodos generativos estándar a menudo carecen de una base contextual en escenarios de SNS, no logrando cerrar la brecha entre los corpus de dominio abierto y los patrones lingüísticos informales de las SNS, al tiempo que luchan por adherirse a definiciones empresariales rigurosas. Presentamos QP-OneModel, un LLM Generativo Unificado para la Comprensión de Consultas Multi-Tarea en el dominio de las SNS. Reformulamos sub-tareas heterogéneas en un paradigma unificado de generación de secuencias, adoptando una estrategia de alineación progresiva de tres etapas que culmina en un Aprendizaje por Refuerzo multi-recompensa. Además, QP-OneModel genera descripciones de intención como una novedosa señal semántica de alta fidelidad, augmentando efectivamente tareas posteriores como la reescritura y la clasificación de consultas. Las evaluaciones offline muestran que QP-OneModel logra una mejora general del 7.35% sobre los modelos discriminativos de referencia, con aumentos significativos en F1 para Reconocimiento de Entidades Nombradas (NER) (+9.01%) y Ponderación de Términos (+9.31%). También exhibe una generalización superior, superando a un modelo de 32B en un 7.60% de precisión en tareas no vistas. Desplegado completamente en Xiaohongshu, las pruebas A/B online confirman su valor industrial, optimizando la relevancia en la recuperación (DCG) en un 0.21% y aumentando la retención de usuarios en un 0.044%.
English
Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.