Informe Técnico de Qwen2.5

Qwen2.5 Technical Report

December 19, 2024
Autores: Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan Qiu
cs.AI

Resumen

En este informe, presentamos Qwen2.5, una serie completa de grandes modelos de lenguaje (LLMs) diseñados para satisfacer diversas necesidades. En comparación con iteraciones anteriores, Qwen 2.5 ha sido mejorado significativamente tanto durante las etapas de preentrenamiento como de postentrenamiento. En cuanto al preentrenamiento, hemos escalado los conjuntos de datos de preentrenamiento de alta calidad de 7 billones de tokens anteriores a 18 billones de tokens. Esto proporciona una sólida base para el sentido común, el conocimiento experto y las capacidades de razonamiento. En cuanto al postentrenamiento, implementamos un ajuste fino supervisado intrincado con más de 1 millón de muestras, así como aprendizaje por refuerzo en múltiples etapas. Las técnicas de postentrenamiento mejoran la preferencia humana y mejoran notablemente la generación de texto largo, el análisis de datos estructurales y el seguimiento de instrucciones. Para manejar casos de uso diversos y variados de manera efectiva, presentamos la serie de modelos LLM Qwen2.5 en tamaños variados. Las ofertas de peso abierto incluyen modelos base y ajustados a instrucciones, con versiones cuantizadas disponibles. Además, para soluciones alojadas, los modelos propietarios actualmente incluyen dos variantes de mezcla de expertos (MoE): Qwen2.5-Turbo y Qwen2.5-Plus, ambos disponibles en Alibaba Cloud Model Studio. Qwen2.5 ha demostrado un rendimiento de primer nivel en una amplia gama de pruebas que evalúan la comprensión del lenguaje, el razonamiento, las matemáticas, la codificación, la alineación de preferencias humanas, etc. Específicamente, el buque insignia de peso abierto Qwen2.5-72B-Instruct supera a varios modelos abiertos y propietarios y muestra un rendimiento competitivo con el modelo de peso abierto de última generación, Llama-3-405B-Instruct, que es aproximadamente 5 veces más grande. Qwen2.5-Turbo y Qwen2.5-Plus ofrecen una mejor relación costo-eficacia al tiempo que compiten contra GPT-4o-mini y GPT-4o respectivamente. Además, como base, los modelos Qwen2.5 han sido fundamentales en el entrenamiento de modelos especializados como Qwen2.5-Math, Qwen2.5-Coder, QwQ y modelos multimodales.
English
In this report, we introduce Qwen2.5, a comprehensive series of large language models (LLMs) designed to meet diverse needs. Compared to previous iterations, Qwen 2.5 has been significantly improved during both the pre-training and post-training stages. In terms of pre-training, we have scaled the high-quality pre-training datasets from the previous 7 trillion tokens to 18 trillion tokens. This provides a strong foundation for common sense, expert knowledge, and reasoning capabilities. In terms of post-training, we implement intricate supervised finetuning with over 1 million samples, as well as multistage reinforcement learning. Post-training techniques enhance human preference, and notably improve long text generation, structural data analysis, and instruction following. To handle diverse and varied use cases effectively, we present Qwen2.5 LLM series in rich sizes. Open-weight offerings include base and instruction-tuned models, with quantized versions available. In addition, for hosted solutions, the proprietary models currently include two mixture-of-experts (MoE) variants: Qwen2.5-Turbo and Qwen2.5-Plus, both available from Alibaba Cloud Model Studio. Qwen2.5 has demonstrated top-tier performance on a wide range of benchmarks evaluating language understanding, reasoning, mathematics, coding, human preference alignment, etc. Specifically, the open-weight flagship Qwen2.5-72B-Instruct outperforms a number of open and proprietary models and demonstrates competitive performance to the state-of-the-art open-weight model, Llama-3-405B-Instruct, which is around 5 times larger. Qwen2.5-Turbo and Qwen2.5-Plus offer superior cost-effectiveness while performing competitively against GPT-4o-mini and GPT-4o respectively. Additionally, as the foundation, Qwen2.5 models have been instrumental in training specialized models such as Qwen2.5-Math, Qwen2.5-Coder, QwQ, and multimodal models.

Summary

AI-Generated Summary

PDF36511December 20, 2024