Informe Técnico Qwen2Qwen2 Technical Report
Este informe presenta la serie Qwen2, la última incorporación a nuestros grandes modelos de lenguaje y modelos multimodales. Lanzamos una completa gama de modelos de lenguaje fundamentales y ajustados a instrucciones, abarcando un rango de parámetros de 0.5 a 72 mil millones, que incluyen modelos densos y un modelo de Mezcla de Expertos. Qwen2 supera a la mayoría de los modelos abiertos anteriores, incluido su predecesor Qwen1.5, y muestra un rendimiento competitivo en comparación con modelos propietarios en diversos puntos de referencia en comprensión del lenguaje, generación, competencia multilingüe, codificación, matemáticas y razonamiento. El modelo insignia, Qwen2-72B, muestra un rendimiento notable: 84.2 en MMLU, 37.9 en GPQA, 64.6 en HumanEval, 89.5 en GSM8K y 82.4 en BBH como modelo de lenguaje base. La variante ajustada a instrucciones, Qwen2-72B-Instruct, logra 9.1 en MT-Bench, 48.1 en Arena-Hard y 35.7 en LiveCodeBench. Además, Qwen2 demuestra sólidas capacidades multilingües, siendo competente en aproximadamente 30 idiomas, que incluyen inglés, chino, español, francés, alemán, árabe, ruso, coreano, japonés, tailandés, vietnamita y más, destacando su versatilidad y alcance global. Para fomentar la innovación y accesibilidad en la comunidad, hemos puesto a disposición públicamente los pesos del modelo Qwen2 en Hugging Face y ModelScope, así como los materiales complementarios, que incluyen código de ejemplo en GitHub. Estas plataformas también ofrecen recursos para cuantificación, ajuste fino e implementación, facilitando una amplia gama de aplicaciones y esfuerzos de investigación.