Yi-Lightning Technisch Rapport
Yi-Lightning Technical Report
December 2, 2024
Auteurs: 01. AI, Alan Wake, Albert Wang, Bei Chen, C. X. Lv, Chao Li, Chengen Huang, Chenglin Cai, Chujie Zheng, Daniel Cooper, Ethan Dai, Fan Zhou, Feng Hu, Heng Ji, Howard Qiu, Jiangcheng Zhu, Jun Tian, Katherine Su, Lihuan Zhang, Liying Li, Ming Song, Mou Li, Peng Liu, Qichen Hu, Shawn Wang, Shijun Zhou, Shiyong Li, Tianhang Zhu, Wen Xie, Xiang He, Xiaobo Chen, Xiaohui Hu, Xiaoyi Ren, Xinyao Niu, Yanpeng Li, Yongke Zhao, Yongzhen Luo, Yuchi Xu, Yuxuan Sha, Zhaodong Yan, Zhiyuan Liu, Zirui Zhang
cs.AI
Samenvatting
Deze technische rapportage presenteert Yi-Lightning, ons nieuwste vlaggenschip-groot taalmodel (LLM). Het behaalt uitzonderlijke prestaties, met een 6e plaats overall op Chatbot Arena, met name sterke resultaten (2e tot 4e plaats) in gespecialiseerde categorieën, waaronder Chinees, Wiskunde, Codering en Moeilijke Aanwijzingen. Yi-Lightning maakt gebruik van een verbeterde Mixture-of-Experts (MoE) architectuur, met geavanceerde expertsegmentatie- en routeringsmechanismen in combinatie met geoptimaliseerde KV-cachingtechnieken. Ons ontwikkelingsproces omvat uitgebreide voorafgaande training, begeleid finetunen (SFT), en versterkend leren van menselijke feedback (RLHF), waarbij we doordachte strategieën bedenken voor meertraps training, constructie van synthetische data, en beloningsmodellering. Bovendien implementeren we RAISE (Verantwoordelijke AI Veiligheidsengine), een viercomponentenkader om veiligheidskwesties aan te pakken in de voorafgaande training, post-training, en dienstverleningsfasen. Dankzij onze schaalbare supercomputing-infrastructuur verminderen al deze innovaties aanzienlijk de kosten voor training, implementatie en inferentie, terwijl ze hoge prestatienormen handhaven. Met verdere evaluaties op openbare academische benchmarks, toont Yi-Lightning competitieve prestaties tegen topklasse LLMs, terwijl we een opmerkelijke discrepantie waarnemen tussen traditionele, statische benchmarkresultaten en dynamische menselijke voorkeuren in de echte wereld. Deze observatie leidt tot een kritische herbeoordeling van het nut van conventionele benchmarks bij het sturen van de ontwikkeling van meer intelligente en krachtige AI-systemen voor praktische toepassingen. Yi-Lightning is nu beschikbaar via ons ontwikkelaarsplatform op https://platform.lingyiwanwu.com.
English
This technical report presents Yi-Lightning, our latest flagship large
language model (LLM). It achieves exceptional performance, ranking 6th overall
on Chatbot Arena, with particularly strong results (2nd to 4th place) in
specialized categories including Chinese, Math, Coding, and Hard Prompts.
Yi-Lightning leverages an enhanced Mixture-of-Experts (MoE) architecture,
featuring advanced expert segmentation and routing mechanisms coupled with
optimized KV-caching techniques. Our development process encompasses
comprehensive pre-training, supervised fine-tuning (SFT), and reinforcement
learning from human feedback (RLHF), where we devise deliberate strategies for
multi-stage training, synthetic data construction, and reward modeling.
Furthermore, we implement RAISE (Responsible AI Safety Engine), a
four-component framework to address safety issues across pre-training,
post-training, and serving phases. Empowered by our scalable super-computing
infrastructure, all these innovations substantially reduce training, deployment
and inference costs while maintaining high-performance standards. With further
evaluations on public academic benchmarks, Yi-Lightning demonstrates
competitive performance against top-tier LLMs, while we observe a notable
disparity between traditional, static benchmark results and real-world, dynamic
human preferences. This observation prompts a critical reassessment of
conventional benchmarks' utility in guiding the development of more intelligent
and powerful AI systems for practical applications. Yi-Lightning is now
available through our developer platform at https://platform.lingyiwanwu.com.