ChatPaper.aiChatPaper

RedOne: Svelare l'Addestramento Post-LLM Specifico per il Dominio nei Servizi di Social Networking

RedOne: Revealing Domain-specific LLM Post-Training in Social Networking Services

July 13, 2025
Autori: Fei Zhao, Chonggang Lu, Yue Wang, Zheyong Xie, Ziyan Liu, Haofu Qian, JianZhao Huang, Fangcheng Shi, Zijie Meng, Hongcheng Guo, Mingqian He, Xinze Lyu, Yiming Lu, Ziyang Xiang, Zheyu Ye, Chengqiang Lu, Zhe Xu, Yi Wu, Yao Hu, Yan Gao, Jun Fan, Xiaolong Jiang, Weiting Liu, Boyang Wang, Shaosheng Cao
cs.AI

Abstract

Come principale mezzo di diffusione delle informazioni moderne, i servizi di social networking (SNS) hanno registrato una rapida crescita, ponendo sfide significative per la gestione dei contenuti delle piattaforme e il miglioramento della qualità delle interazioni. Recentemente, lo sviluppo di modelli linguistici di grandi dimensioni (LLM) ha offerto potenziali soluzioni, ma gli studi esistenti si concentrano su compiti isolati, che non solo incontrano un rendimento decrescente dalla scalabilità dei dati all'interno di scenari individuali, ma non riescono nemmeno ad adattarsi in modo flessibile a contesti reali diversi. Per affrontare queste sfide, introduciamo RedOne, un LLM specifico per il dominio, progettato per superare il collo di bottiglia delle prestazioni dei modelli di riferimento a singolo compito e stabilire una base completa per gli SNS. RedOne è stato sviluppato attraverso una strategia di addestramento in tre fasi, costituita da pre-addestramento continuo, fine-tuning supervisionato e ottimizzazione delle preferenze, utilizzando un ampio dataset del mondo reale. Attraverso esperimenti estesi, RedOne mantiene forti capacità generali e raggiunge un miglioramento medio fino al 14,02% su 8 principali compiti SNS e del 7,56% nel benchmark di valutazione bilingue SNS, rispetto ai modelli di base. Inoltre, attraverso test online, RedOne ha ridotto il tasso di esposizione nel rilevamento di contenuti dannosi dell'11,23% e migliorato il tasso di clic nella ricerca post-visualizzazione del 14,95% rispetto ai modelli di riferimento fine-tuned per singoli compiti. Questi risultati stabiliscono RedOne come un robusto LLM specifico per il dominio SNS, dimostrando un'eccellente generalizzazione su vari compiti e una promettente applicabilità in scenari reali.
English
As a primary medium for modern information dissemination, social networking services (SNS) have experienced rapid growth, which has proposed significant challenges for platform content management and interaction quality improvement. Recently, the development of large language models (LLMs) has offered potential solutions but existing studies focus on isolated tasks, which not only encounter diminishing benefit from the data scaling within individual scenarios but also fail to flexibly adapt to diverse real-world context. To address these challenges, we introduce RedOne, a domain-specific LLM designed to break the performance bottleneck of single-task baselines and establish a comprehensive foundation for the SNS. RedOne was developed through a three-stage training strategy consisting of continue pretraining, supervised fine-tuning, and preference optimization, using a large-scale real-world dataset. Through extensive experiments, RedOne maintains strong general capabilities, and achieves an average improvement up to 14.02% across 8 major SNS tasks and 7.56% in SNS bilingual evaluation benchmark, compared with base models. Furthermore, through online testing, RedOne reduced the exposure rate in harmful content detection by 11.23% and improved the click page rate in post-view search by 14.95% compared with single-tasks finetuned baseline models. These results establish RedOne as a robust domain-specific LLM for SNS, demonstrating excellent generalization across various tasks and promising applicability in real-world scenarios.
PDF72July 21, 2025