OnePiece: Integrando la Ingeniería de Contexto y el Razonamiento en Sistemas Industriales de Clasificación en Cascada
OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System
September 22, 2025
Autores: Sunhao Dai, Jiakai Tang, Jiahua Wu, Kun Wang, Yuxuan Zhu, Bingjun Chen, Bangyang Hong, Yu Zhao, Cong Fu, Kangle Wu, Yabo Ni, Anxiang Zeng, Wenjie Wang, Xu Chen, Jun Xu, See-Kiong Ng
cs.AI
Resumen
A pesar del creciente interés en replicar el éxito escalado de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) en los sistemas de búsqueda y recomendación industrial, la mayoría de los esfuerzos industriales existentes se limitan a trasplantar arquitecturas Transformer, lo que aporta solo mejoras incrementales sobre los sólidos Modelos de Recomendación con Aprendizaje Profundo (DLRMs, por sus siglas en inglés). Desde una perspectiva de principios fundamentales, los avances de los LLMs no solo provienen de sus arquitecturas, sino también de dos mecanismos complementarios: la ingeniería de contexto, que enriquece las consultas de entrada en bruto con señales contextuales para aprovechar mejor las capacidades del modelo, y el razonamiento de múltiples pasos, que refina iterativamente las salidas del modelo a través de caminos de razonamiento intermedios. Sin embargo, estos dos mecanismos y su potencial para desbloquear mejoras sustanciales siguen siendo en gran medida inexplorados en los sistemas de clasificación industrial.
En este artículo, proponemos OnePiece, un marco unificado que integra de manera fluida la ingeniería de contexto y el razonamiento al estilo de los LLMs en los modelos de recuperación y clasificación de las tuberías en cascada industrial. OnePiece se construye sobre una arquitectura pura de Transformer e introduce tres innovaciones clave: (1) ingeniería de contexto estructurada, que enriquece el historial de interacción con señales de preferencia y escenario, y las unifica en una secuencia de entrada tokenizada estructurada tanto para la recuperación como para la clasificación; (2) razonamiento latente por bloques, que dota al modelo de un refinamiento de múltiples pasos de las representaciones y escala el ancho de banda del razonamiento mediante el tamaño del bloque; (3) entrenamiento multitarea progresivo, que aprovecha las cadenas de retroalimentación del usuario para supervisar eficazmente los pasos de razonamiento durante el entrenamiento. OnePiece ha sido implementado en el escenario principal de búsqueda personalizada de Shopee y logra ganancias consistentes en línea en diferentes métricas clave del negocio, incluyendo un aumento de más del +2% en GMV/UU y un incremento del +2.90% en los ingresos publicitarios.
English
Despite the growing interest in replicating the scaled success of large
language models (LLMs) in industrial search and recommender systems, most
existing industrial efforts remain limited to transplanting Transformer
architectures, which bring only incremental improvements over strong Deep
Learning Recommendation Models (DLRMs). From a first principle perspective, the
breakthroughs of LLMs stem not only from their architectures but also from two
complementary mechanisms: context engineering, which enriches raw input queries
with contextual cues to better elicit model capabilities, and multi-step
reasoning, which iteratively refines model outputs through intermediate
reasoning paths. However, these two mechanisms and their potential to unlock
substantial improvements remain largely underexplored in industrial ranking
systems.
In this paper, we propose OnePiece, a unified framework that seamlessly
integrates LLM-style context engineering and reasoning into both retrieval and
ranking models of industrial cascaded pipelines. OnePiece is built on a pure
Transformer backbone and further introduces three key innovations: (1)
structured context engineering, which augments interaction history with
preference and scenario signals and unifies them into a structured tokenized
input sequence for both retrieval and ranking; (2) block-wise latent reasoning,
which equips the model with multi-step refinement of representations and scales
reasoning bandwidth via block size; (3) progressive multi-task training, which
leverages user feedback chains to effectively supervise reasoning steps during
training. OnePiece has been deployed in the main personalized search scenario
of Shopee and achieves consistent online gains across different key business
metrics, including over +2% GMV/UU and a +2.90% increase in advertising
revenue.