Rapport Technique de RecGPT
RecGPT Technical Report
July 30, 2025
papers.authors: Chao Yi, Dian Chen, Gaoyang Guo, Jiakai Tang, Jian Wu, Jing Yu, Sunhao Dai, Wen Chen, Wenjun Yang, Yuning Jiang, Zhujin Gao, Bo Zheng, Chi Li, Dimin Wang, Dixuan Wang, Fan Li, Fan Zhang, Haibin Chen, Haozhuang Liu, Jialin Zhu, Jiamang Wang, Jiawei Wu, Jin Cui, Ju Huang, Kai Zhang, Kan Liu, Lang Tian, Liang Rao, Longbin Li, Lulu Zhao, Mao Zhang, Na He, Peiyang Wang, Qiqi Huang, Tao Luo, Wenbo Su, Xiaoxiao He, Xin Tong, Xu Chen, Xunke Xi, Yang Li, Yaxuan Wu, Yeqiu Yang, Yi Hu, Yinnan Song, Yuchen Li, Yujie Luo, Yujin Yuan, Yuliang Yan, Zhengyang Wang, Zhibo Xiao, Zhixin Ma, Zile Zhou
cs.AI
papers.abstract
Les systèmes de recommandation figurent parmi les applications les plus influentes de l'intelligence artificielle, servant d'infrastructure critique reliant les utilisateurs, les commerçants et les plateformes. Cependant, la plupart des systèmes industriels actuels restent fortement dépendants des modèles de co-occurrence historique et des objectifs d'ajustement aux logs, c'est-à-dire qu'ils optimisent les interactions passées des utilisateurs sans modéliser explicitement leurs intentions. Cette approche d'ajustement aux logs conduit souvent à un surajustement aux préférences historiques étroites, échouant à capturer les intérêts évolutifs et latents des utilisateurs. En conséquence, elle renforce les bulles de filtrage et les phénomènes de longue traîne, nuisant finalement à l'expérience utilisateur et menaçant la durabilité de l'écosystème de recommandation.
Pour relever ces défis, nous repensons le paradigme de conception global des systèmes de recommandation et proposons RecGPT, un framework de nouvelle génération qui place l'intention utilisateur au cœur du pipeline de recommandation. En intégrant des modèles de langage de grande taille (LLMs) aux étapes clés de l'exploration des intérêts utilisateur, de la récupération d'articles et de la génération d'explications, RecGPT transforme la recommandation basée sur les logs en un processus centré sur l'intention. Pour aligner efficacement les LLMs à usage général sur ces tâches de recommandation spécifiques à grande échelle, RecGPT intègre un paradigme de formation multi-étapes, qui combine un pré-alignement amélioré par le raisonnement et une évolution par auto-formation, guidé par un système de jugement coopératif Humain-LLM. Actuellement, RecGPT est entièrement déployé sur l'application Taobao. Les expériences en ligne démontrent que RecGPT obtient des gains de performance constants pour toutes les parties prenantes : les utilisateurs bénéficient d'une diversité et d'une satisfaction accrues, tandis que les commerçants et la plateforme gagnent en visibilité et en conversions. Ces résultats d'amélioration globale pour toutes les parties prenantes valident que la conception centrée sur l'intention, pilotée par les LLMs, peut favoriser un écosystème de recommandation plus durable et mutuellement bénéfique.
English
Recommender systems are among the most impactful applications of artificial
intelligence, serving as critical infrastructure connecting users, merchants,
and platforms. However, most current industrial systems remain heavily reliant
on historical co-occurrence patterns and log-fitting objectives, i.e.,
optimizing for past user interactions without explicitly modeling user intent.
This log-fitting approach often leads to overfitting to narrow historical
preferences, failing to capture users' evolving and latent interests. As a
result, it reinforces filter bubbles and long-tail phenomena, ultimately
harming user experience and threatening the sustainability of the whole
recommendation ecosystem.
To address these challenges, we rethink the overall design paradigm of
recommender systems and propose RecGPT, a next-generation framework that places
user intent at the center of the recommendation pipeline. By integrating large
language models (LLMs) into key stages of user interest mining, item retrieval,
and explanation generation, RecGPT transforms log-fitting recommendation into
an intent-centric process. To effectively align general-purpose LLMs to the
above domain-specific recommendation tasks at scale, RecGPT incorporates a
multi-stage training paradigm, which integrates reasoning-enhanced
pre-alignment and self-training evolution, guided by a Human-LLM cooperative
judge system. Currently, RecGPT has been fully deployed on the Taobao App.
Online experiments demonstrate that RecGPT achieves consistent performance
gains across stakeholders: users benefit from increased content diversity and
satisfaction, merchants and the platform gain greater exposure and conversions.
These comprehensive improvement results across all stakeholders validates that
LLM-driven, intent-centric design can foster a more sustainable and mutually
beneficial recommendation ecosystem.