ChatPaper.aiChatPaper

DeepSeek LLM: Escalando Modelos de Lenguaje de Código Abierto con una Visión a Largo Plazo

DeepSeek LLM: Scaling Open-Source Language Models with Longtermism

January 5, 2024
Autores: DeepSeek-AI, Xiao Bi, Deli Chen, Guanting Chen, Shanhuang Chen, Damai Dai, Chengqi Deng, Honghui Ding, Kai Dong, Qiushi Du, Zhe Fu, Huazuo Gao, Kaige Gao, Wenjun Gao, Ruiqi Ge, Kang Guan, Daya Guo, Jianzhong Guo, Guangbo Hao, Zhewen Hao, Ying He, Wenjie Hu, Panpan Huang, Erhang Li, Guowei Li, Jiashi Li, Yao Li, Y. K. Li, Wenfeng Liang, Fangyun Lin, A. X. Liu, Bo Liu, Wen Liu, Xiaodong Liu, Xin Liu, Yiyuan Liu, Haoyu Lu, Shanghao Lu, Fuli Luo, Shirong Ma, Xiaotao Nie, Tian Pei, Yishi Piao, Junjie Qiu, Hui Qu, Tongzheng Ren, Zehui Ren, Chong Ruan, Zhangli Sha, Zhihong Shao, Junxiao Song, Xuecheng Su, Jingxiang Sun, Yaofeng Sun, Minghui Tang, Bingxuan Wang, Peiyi Wang, Shiyu Wang, Yaohui Wang, Yongji Wang, Tong Wu, Y. Wu, Xin Xie, Zhenda Xie, Ziwei Xie, Yiliang Xiong, Hanwei Xu, R. X. Xu, Yanhong Xu, Dejian Yang, Yuxiang You, Shuiping Yu, Xingkai Yu, B. Zhang, Haowei Zhang, Lecong Zhang, Liyue Zhang, Mingchuan Zhang, Minghua Zhang, Wentao Zhang, Yichao Zhang, Chenggang Zhao, Yao Zhao, Shangyan Zhou, Shunfeng Zhou, Qihao Zhu, Yuheng Zou
cs.AI

Resumen

El rápido desarrollo de los modelos de lenguaje de gran escala (LLMs) de código abierto ha sido verdaderamente notable. Sin embargo, la ley de escalamiento descrita en la literatura previa presenta conclusiones variadas, lo que arroja una sombra de incertidumbre sobre el escalamiento de los LLMs. Nos adentramos en el estudio de las leyes de escalamiento y presentamos nuestros hallazgos distintivos que facilitan el escalamiento de modelos a gran escala en dos configuraciones de código abierto comúnmente utilizadas, 7B y 67B. Guiados por las leyes de escalamiento, presentamos DeepSeek LLM, un proyecto dedicado a avanzar en los modelos de lenguaje de código abierto con una perspectiva a largo plazo. Para respaldar la fase de pre-entrenamiento, hemos desarrollado un conjunto de datos que actualmente consta de 2 billones de tokens y está en continua expansión. Además, realizamos un ajuste fino supervisado (SFT) y una Optimización Directa de Preferencias (DPO) en los modelos base de DeepSeek LLM, lo que resulta en la creación de los modelos DeepSeek Chat. Nuestros resultados de evaluación demuestran que DeepSeek LLM 67B supera a LLaMA-2 70B en varios puntos de referencia, particularmente en los dominios de código, matemáticas y razonamiento. Además, las evaluaciones de respuesta abierta revelan que DeepSeek LLM 67B Chat exhibe un rendimiento superior en comparación con GPT-3.5.
English
The rapid development of open-source large language models (LLMs) has been truly remarkable. However, the scaling law described in previous literature presents varying conclusions, which casts a dark cloud over scaling LLMs. We delve into the study of scaling laws and present our distinctive findings that facilitate scaling of large scale models in two commonly used open-source configurations, 7B and 67B. Guided by the scaling laws, we introduce DeepSeek LLM, a project dedicated to advancing open-source language models with a long-term perspective. To support the pre-training phase, we have developed a dataset that currently consists of 2 trillion tokens and is continuously expanding. We further conduct supervised fine-tuning (SFT) and Direct Preference Optimization (DPO) on DeepSeek LLM Base models, resulting in the creation of DeepSeek Chat models. Our evaluation results demonstrate that DeepSeek LLM 67B surpasses LLaMA-2 70B on various benchmarks, particularly in the domains of code, mathematics, and reasoning. Furthermore, open-ended evaluations reveal that DeepSeek LLM 67B Chat exhibits superior performance compared to GPT-3.5.
PDF494December 15, 2024