ChatPaper.aiChatPaper

OnePiece : Intégration de l'ingénierie contextuelle et du raisonnement dans les systèmes de classement en cascade industriels

OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System

September 22, 2025
papers.authors: Sunhao Dai, Jiakai Tang, Jiahua Wu, Kun Wang, Yuxuan Zhu, Bingjun Chen, Bangyang Hong, Yu Zhao, Cong Fu, Kangle Wu, Yabo Ni, Anxiang Zeng, Wenjie Wang, Xu Chen, Jun Xu, See-Kiong Ng
cs.AI

papers.abstract

Malgré l'intérêt croissant pour reproduire le succès à grande échelle des modèles de langage de grande taille (LLMs) dans les systèmes de recherche industriels et de recommandation, la plupart des efforts industriels existants se limitent à transposer les architectures Transformer, qui n'apportent que des améliorations incrémentielles par rapport aux modèles de recommandation par apprentissage profond (DLRMs) déjà performants. D'un point de vue fondamental, les avancées des LLMs ne découlent pas uniquement de leurs architectures, mais aussi de deux mécanismes complémentaires : l'ingénierie contextuelle, qui enrichit les requêtes brutes avec des indices contextuels pour mieux exploiter les capacités du modèle, et le raisonnement multi-étapes, qui affine itérativement les sorties du modèle à travers des chemins de raisonnement intermédiaires. Cependant, ces deux mécanismes et leur potentiel à débloquer des améliorations substantielles restent largement inexplorés dans les systèmes de classement industriels. Dans cet article, nous proposons OnePiece, un cadre unifié qui intègre de manière transparente l'ingénierie contextuelle et le raisonnement de style LLM dans les modèles de récupération et de classement des pipelines en cascade industriels. OnePiece est construit sur une architecture Transformer pure et introduit trois innovations clés : (1) l'ingénierie contextuelle structurée, qui enrichit l'historique des interactions avec des signaux de préférence et de scénario, et les unifie en une séquence d'entrée tokenisée structurée pour la récupération et le classement ; (2) le raisonnement latent par blocs, qui dote le modèle d'un raffinement multi-étapes des représentations et ajuste la bande passante du raisonnement via la taille des blocs ; (3) l'entraînement multi-tâches progressif, qui exploite les chaînes de feedback utilisateur pour superviser efficacement les étapes de raisonnement pendant l'entraînement. OnePiece a été déployé dans le scénario principal de recherche personnalisée de Shopee et obtient des gains en ligne constants sur différentes métriques commerciales clés, incluant une augmentation de plus de +2% du GMV/UU et une hausse de +2,90% des revenus publicitaires.
English
Despite the growing interest in replicating the scaled success of large language models (LLMs) in industrial search and recommender systems, most existing industrial efforts remain limited to transplanting Transformer architectures, which bring only incremental improvements over strong Deep Learning Recommendation Models (DLRMs). From a first principle perspective, the breakthroughs of LLMs stem not only from their architectures but also from two complementary mechanisms: context engineering, which enriches raw input queries with contextual cues to better elicit model capabilities, and multi-step reasoning, which iteratively refines model outputs through intermediate reasoning paths. However, these two mechanisms and their potential to unlock substantial improvements remain largely underexplored in industrial ranking systems. In this paper, we propose OnePiece, a unified framework that seamlessly integrates LLM-style context engineering and reasoning into both retrieval and ranking models of industrial cascaded pipelines. OnePiece is built on a pure Transformer backbone and further introduces three key innovations: (1) structured context engineering, which augments interaction history with preference and scenario signals and unifies them into a structured tokenized input sequence for both retrieval and ranking; (2) block-wise latent reasoning, which equips the model with multi-step refinement of representations and scales reasoning bandwidth via block size; (3) progressive multi-task training, which leverages user feedback chains to effectively supervise reasoning steps during training. OnePiece has been deployed in the main personalized search scenario of Shopee and achieves consistent online gains across different key business metrics, including over +2% GMV/UU and a +2.90% increase in advertising revenue.
PDF323September 23, 2025