RecGPT Technischer Bericht
RecGPT Technical Report
July 30, 2025
papers.authors: Chao Yi, Dian Chen, Gaoyang Guo, Jiakai Tang, Jian Wu, Jing Yu, Sunhao Dai, Wen Chen, Wenjun Yang, Yuning Jiang, Zhujin Gao, Bo Zheng, Chi Li, Dimin Wang, Dixuan Wang, Fan Li, Fan Zhang, Haibin Chen, Haozhuang Liu, Jialin Zhu, Jiamang Wang, Jiawei Wu, Jin Cui, Ju Huang, Kai Zhang, Kan Liu, Lang Tian, Liang Rao, Longbin Li, Lulu Zhao, Mao Zhang, Na He, Peiyang Wang, Qiqi Huang, Tao Luo, Wenbo Su, Xiaoxiao He, Xin Tong, Xu Chen, Xunke Xi, Yang Li, Yaxuan Wu, Yeqiu Yang, Yi Hu, Yinnan Song, Yuchen Li, Yujie Luo, Yujin Yuan, Yuliang Yan, Zhengyang Wang, Zhibo Xiao, Zhixin Ma, Zile Zhou
cs.AI
papers.abstract
Empfehlungssysteme gehören zu den einflussreichsten Anwendungen der künstlichen Intelligenz und fungieren als kritische Infrastruktur, die Nutzer, Händler und Plattformen verbindet. Die meisten derzeitigen industriellen Systeme sind jedoch stark auf historische Kookkurrenzmuster und Log-Fitting-Ziele angewiesen, d. h. sie optimieren vergangene Nutzerinteraktionen, ohne die Nutzerabsicht explizit zu modellieren. Dieser Log-Fitting-Ansatz führt häufig zu einer Überanpassung an enge historische Präferenzen, wodurch sich entwickelnde und latente Interessen der Nutzer nicht erfasst werden. Infolgedessen verstärkt er Filterblasen und Long-Tail-Phänomene, was letztlich die Nutzererfahrung beeinträchtigt und die Nachhaltigkeit des gesamten Empfehlungsökosystems gefährdet.
Um diese Herausforderungen zu bewältigen, überdenken wir das gesamte Designparadigma von Empfehlungssystemen und schlagen RecGPT vor, ein Framework der nächsten Generation, das die Nutzerabsicht in den Mittelpunkt des Empfehlungsprozesses stellt. Durch die Integration von großen Sprachmodellen (LLMs) in Schlüsselphasen wie der Nutzerinteressenanalyse, der Artikelrecherche und der Erklärungsgenerierung verwandelt RecGPT die Log-Fitting-Empfehlung in einen absichtszentrierten Prozess. Um allgemeine LLMs effektiv auf die oben genannten domänenspezifischen Empfehlungsaufgaben in großem Maßstab abzustimmen, integriert RecGPT ein mehrstufiges Trainingsparadigma, das eine vernunftgesteuerte Vorabstimmung und eine selbsttrainierende Evolution umfasst, geleitet durch ein kooperatives Human-LLM-Bewertungssystem. Derzeit ist RecGPT vollständig in der Taobao-App implementiert. Online-Experimente zeigen, dass RecGPT konsistente Leistungssteigerungen für alle Beteiligten erzielt: Nutzer profitieren von einer erhöhten Inhaltsvielfalt und Zufriedenheit, während Händler und die Plattform eine größere Reichweite und Konversionen erzielen. Diese umfassenden Verbesserungsergebnisse für alle Stakeholder bestätigen, dass ein LLM-gestütztes, absichtszentriertes Design ein nachhaltigeres und gegenseitig vorteilhaftes Empfehlungsökosystem fördern kann.
English
Recommender systems are among the most impactful applications of artificial
intelligence, serving as critical infrastructure connecting users, merchants,
and platforms. However, most current industrial systems remain heavily reliant
on historical co-occurrence patterns and log-fitting objectives, i.e.,
optimizing for past user interactions without explicitly modeling user intent.
This log-fitting approach often leads to overfitting to narrow historical
preferences, failing to capture users' evolving and latent interests. As a
result, it reinforces filter bubbles and long-tail phenomena, ultimately
harming user experience and threatening the sustainability of the whole
recommendation ecosystem.
To address these challenges, we rethink the overall design paradigm of
recommender systems and propose RecGPT, a next-generation framework that places
user intent at the center of the recommendation pipeline. By integrating large
language models (LLMs) into key stages of user interest mining, item retrieval,
and explanation generation, RecGPT transforms log-fitting recommendation into
an intent-centric process. To effectively align general-purpose LLMs to the
above domain-specific recommendation tasks at scale, RecGPT incorporates a
multi-stage training paradigm, which integrates reasoning-enhanced
pre-alignment and self-training evolution, guided by a Human-LLM cooperative
judge system. Currently, RecGPT has been fully deployed on the Taobao App.
Online experiments demonstrate that RecGPT achieves consistent performance
gains across stakeholders: users benefit from increased content diversity and
satisfaction, merchants and the platform gain greater exposure and conversions.
These comprehensive improvement results across all stakeholders validates that
LLM-driven, intent-centric design can foster a more sustainable and mutually
beneficial recommendation ecosystem.