Rapporto Tecnico di RecGPT
RecGPT Technical Report
July 30, 2025
Autori: Chao Yi, Dian Chen, Gaoyang Guo, Jiakai Tang, Jian Wu, Jing Yu, Sunhao Dai, Wen Chen, Wenjun Yang, Yuning Jiang, Zhujin Gao, Bo Zheng, Chi Li, Dimin Wang, Dixuan Wang, Fan Li, Fan Zhang, Haibin Chen, Haozhuang Liu, Jialin Zhu, Jiamang Wang, Jiawei Wu, Jin Cui, Ju Huang, Kai Zhang, Kan Liu, Lang Tian, Liang Rao, Longbin Li, Lulu Zhao, Mao Zhang, Na He, Peiyang Wang, Qiqi Huang, Tao Luo, Wenbo Su, Xiaoxiao He, Xin Tong, Xu Chen, Xunke Xi, Yang Li, Yaxuan Wu, Yeqiu Yang, Yi Hu, Yinnan Song, Yuchen Li, Yujie Luo, Yujin Yuan, Yuliang Yan, Zhengyang Wang, Zhibo Xiao, Zhixin Ma, Zile Zhou
cs.AI
Abstract
I sistemi di raccomandazione sono tra le applicazioni più impattanti dell'intelligenza artificiale, rappresentando un'infrastruttura critica che collega utenti, commercianti e piattaforme. Tuttavia, la maggior parte dei sistemi industriali attuali rimane fortemente dipendente da modelli storici di co-occorrenza e obiettivi di adattamento ai log, ovvero ottimizzando le interazioni passate degli utenti senza modellare esplicitamente le loro intenzioni. Questo approccio di adattamento ai log spesso porta a un overfitting verso preferenze storiche ristrette, fallendo nel cogliere gli interessi evolutivi e latenti degli utenti. Di conseguenza, rafforza le bolle informative e i fenomeni della coda lunga, danneggiando l'esperienza dell'utente e minacciando la sostenibilità dell'intero ecosistema di raccomandazione.
Per affrontare queste sfide, ripensiamo il paradigma di progettazione complessivo dei sistemi di raccomandazione e proponiamo RecGPT, un framework di nuova generazione che pone l'intenzione dell'utente al centro del processo di raccomandazione. Integrando modelli linguistici di grandi dimensioni (LLM) nelle fasi chiave di estrazione degli interessi degli utenti, recupero degli elementi e generazione di spiegazioni, RecGPT trasforma la raccomandazione basata sui log in un processo centrato sull'intenzione. Per allineare efficacemente gli LLM generici ai suddetti compiti di raccomandazione specifici del dominio su larga scala, RecGPT incorpora un paradigma di addestramento multi-stadio, che integra un pre-allineamento potenziato dal ragionamento e un'evoluzione tramite auto-addestramento, guidato da un sistema di giudizio cooperativo Uomo-LLM. Attualmente, RecGPT è stato completamente implementato sull'app Taobao. Esperimenti online dimostrano che RecGPT ottiene miglioramenti consistenti delle prestazioni per tutte le parti interessate: gli utenti beneficiano di una maggiore diversità dei contenuti e soddisfazione, mentre commercianti e piattaforma ottengono una maggiore esposizione e conversione. Questi risultati di miglioramento complessivo per tutte le parti interessate convalidano che un design guidato da LLM e centrato sull'intenzione può favorire un ecosistema di raccomandazione più sostenibile e reciprocamente vantaggioso.
English
Recommender systems are among the most impactful applications of artificial
intelligence, serving as critical infrastructure connecting users, merchants,
and platforms. However, most current industrial systems remain heavily reliant
on historical co-occurrence patterns and log-fitting objectives, i.e.,
optimizing for past user interactions without explicitly modeling user intent.
This log-fitting approach often leads to overfitting to narrow historical
preferences, failing to capture users' evolving and latent interests. As a
result, it reinforces filter bubbles and long-tail phenomena, ultimately
harming user experience and threatening the sustainability of the whole
recommendation ecosystem.
To address these challenges, we rethink the overall design paradigm of
recommender systems and propose RecGPT, a next-generation framework that places
user intent at the center of the recommendation pipeline. By integrating large
language models (LLMs) into key stages of user interest mining, item retrieval,
and explanation generation, RecGPT transforms log-fitting recommendation into
an intent-centric process. To effectively align general-purpose LLMs to the
above domain-specific recommendation tasks at scale, RecGPT incorporates a
multi-stage training paradigm, which integrates reasoning-enhanced
pre-alignment and self-training evolution, guided by a Human-LLM cooperative
judge system. Currently, RecGPT has been fully deployed on the Taobao App.
Online experiments demonstrate that RecGPT achieves consistent performance
gains across stakeholders: users benefit from increased content diversity and
satisfaction, merchants and the platform gain greater exposure and conversions.
These comprehensive improvement results across all stakeholders validates that
LLM-driven, intent-centric design can foster a more sustainable and mutually
beneficial recommendation ecosystem.