OnePiece : Intégration de l'ingénierie contextuelle et du raisonnement dans les systèmes de classement en cascade industriels
OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System
September 22, 2025
papers.authors: Sunhao Dai, Jiakai Tang, Jiahua Wu, Kun Wang, Yuxuan Zhu, Bingjun Chen, Bangyang Hong, Yu Zhao, Cong Fu, Kangle Wu, Yabo Ni, Anxiang Zeng, Wenjie Wang, Xu Chen, Jun Xu, See-Kiong Ng
cs.AI
papers.abstract
Malgré l'intérêt croissant pour reproduire le succès à grande échelle des modèles de langage de grande taille (LLMs) dans les systèmes de recherche industriels et de recommandation, la plupart des efforts industriels existants se limitent à transposer les architectures Transformer, qui n'apportent que des améliorations incrémentielles par rapport aux modèles de recommandation par apprentissage profond (DLRMs) déjà performants. D'un point de vue fondamental, les avancées des LLMs ne découlent pas uniquement de leurs architectures, mais aussi de deux mécanismes complémentaires : l'ingénierie contextuelle, qui enrichit les requêtes brutes avec des indices contextuels pour mieux exploiter les capacités du modèle, et le raisonnement multi-étapes, qui affine itérativement les sorties du modèle à travers des chemins de raisonnement intermédiaires. Cependant, ces deux mécanismes et leur potentiel à débloquer des améliorations substantielles restent largement inexplorés dans les systèmes de classement industriels.
Dans cet article, nous proposons OnePiece, un cadre unifié qui intègre de manière transparente l'ingénierie contextuelle et le raisonnement de style LLM dans les modèles de récupération et de classement des pipelines en cascade industriels. OnePiece est construit sur une architecture Transformer pure et introduit trois innovations clés : (1) l'ingénierie contextuelle structurée, qui enrichit l'historique des interactions avec des signaux de préférence et de scénario, et les unifie en une séquence d'entrée tokenisée structurée pour la récupération et le classement ; (2) le raisonnement latent par blocs, qui dote le modèle d'un raffinement multi-étapes des représentations et ajuste la bande passante du raisonnement via la taille des blocs ; (3) l'entraînement multi-tâches progressif, qui exploite les chaînes de feedback utilisateur pour superviser efficacement les étapes de raisonnement pendant l'entraînement. OnePiece a été déployé dans le scénario principal de recherche personnalisée de Shopee et obtient des gains en ligne constants sur différentes métriques commerciales clés, incluant une augmentation de plus de +2% du GMV/UU et une hausse de +2,90% des revenus publicitaires.
English
Despite the growing interest in replicating the scaled success of large
language models (LLMs) in industrial search and recommender systems, most
existing industrial efforts remain limited to transplanting Transformer
architectures, which bring only incremental improvements over strong Deep
Learning Recommendation Models (DLRMs). From a first principle perspective, the
breakthroughs of LLMs stem not only from their architectures but also from two
complementary mechanisms: context engineering, which enriches raw input queries
with contextual cues to better elicit model capabilities, and multi-step
reasoning, which iteratively refines model outputs through intermediate
reasoning paths. However, these two mechanisms and their potential to unlock
substantial improvements remain largely underexplored in industrial ranking
systems.
In this paper, we propose OnePiece, a unified framework that seamlessly
integrates LLM-style context engineering and reasoning into both retrieval and
ranking models of industrial cascaded pipelines. OnePiece is built on a pure
Transformer backbone and further introduces three key innovations: (1)
structured context engineering, which augments interaction history with
preference and scenario signals and unifies them into a structured tokenized
input sequence for both retrieval and ranking; (2) block-wise latent reasoning,
which equips the model with multi-step refinement of representations and scales
reasoning bandwidth via block size; (3) progressive multi-task training, which
leverages user feedback chains to effectively supervise reasoning steps during
training. OnePiece has been deployed in the main personalized search scenario
of Shopee and achieves consistent online gains across different key business
metrics, including over +2% GMV/UU and a +2.90% increase in advertising
revenue.