ChatPaper.aiChatPaper

OnePiece: Integrando la Ingeniería de Contexto y el Razonamiento en Sistemas Industriales de Clasificación en Cascada

OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System

September 22, 2025
Autores: Sunhao Dai, Jiakai Tang, Jiahua Wu, Kun Wang, Yuxuan Zhu, Bingjun Chen, Bangyang Hong, Yu Zhao, Cong Fu, Kangle Wu, Yabo Ni, Anxiang Zeng, Wenjie Wang, Xu Chen, Jun Xu, See-Kiong Ng
cs.AI

Resumen

A pesar del creciente interés en replicar el éxito escalado de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) en los sistemas de búsqueda y recomendación industrial, la mayoría de los esfuerzos industriales existentes se limitan a trasplantar arquitecturas Transformer, lo que aporta solo mejoras incrementales sobre los sólidos Modelos de Recomendación con Aprendizaje Profundo (DLRMs, por sus siglas en inglés). Desde una perspectiva de principios fundamentales, los avances de los LLMs no solo provienen de sus arquitecturas, sino también de dos mecanismos complementarios: la ingeniería de contexto, que enriquece las consultas de entrada en bruto con señales contextuales para aprovechar mejor las capacidades del modelo, y el razonamiento de múltiples pasos, que refina iterativamente las salidas del modelo a través de caminos de razonamiento intermedios. Sin embargo, estos dos mecanismos y su potencial para desbloquear mejoras sustanciales siguen siendo en gran medida inexplorados en los sistemas de clasificación industrial. En este artículo, proponemos OnePiece, un marco unificado que integra de manera fluida la ingeniería de contexto y el razonamiento al estilo de los LLMs en los modelos de recuperación y clasificación de las tuberías en cascada industrial. OnePiece se construye sobre una arquitectura pura de Transformer e introduce tres innovaciones clave: (1) ingeniería de contexto estructurada, que enriquece el historial de interacción con señales de preferencia y escenario, y las unifica en una secuencia de entrada tokenizada estructurada tanto para la recuperación como para la clasificación; (2) razonamiento latente por bloques, que dota al modelo de un refinamiento de múltiples pasos de las representaciones y escala el ancho de banda del razonamiento mediante el tamaño del bloque; (3) entrenamiento multitarea progresivo, que aprovecha las cadenas de retroalimentación del usuario para supervisar eficazmente los pasos de razonamiento durante el entrenamiento. OnePiece ha sido implementado en el escenario principal de búsqueda personalizada de Shopee y logra ganancias consistentes en línea en diferentes métricas clave del negocio, incluyendo un aumento de más del +2% en GMV/UU y un incremento del +2.90% en los ingresos publicitarios.
English
Despite the growing interest in replicating the scaled success of large language models (LLMs) in industrial search and recommender systems, most existing industrial efforts remain limited to transplanting Transformer architectures, which bring only incremental improvements over strong Deep Learning Recommendation Models (DLRMs). From a first principle perspective, the breakthroughs of LLMs stem not only from their architectures but also from two complementary mechanisms: context engineering, which enriches raw input queries with contextual cues to better elicit model capabilities, and multi-step reasoning, which iteratively refines model outputs through intermediate reasoning paths. However, these two mechanisms and their potential to unlock substantial improvements remain largely underexplored in industrial ranking systems. In this paper, we propose OnePiece, a unified framework that seamlessly integrates LLM-style context engineering and reasoning into both retrieval and ranking models of industrial cascaded pipelines. OnePiece is built on a pure Transformer backbone and further introduces three key innovations: (1) structured context engineering, which augments interaction history with preference and scenario signals and unifies them into a structured tokenized input sequence for both retrieval and ranking; (2) block-wise latent reasoning, which equips the model with multi-step refinement of representations and scales reasoning bandwidth via block size; (3) progressive multi-task training, which leverages user feedback chains to effectively supervise reasoning steps during training. OnePiece has been deployed in the main personalized search scenario of Shopee and achieves consistent online gains across different key business metrics, including over +2% GMV/UU and a +2.90% increase in advertising revenue.
PDF323September 23, 2025