Технический отчёт Qwen2.5Qwen2.5 Technical Report
В данном отчете мы представляем Qwen2.5, обширную серию крупных языковых моделей (LLM), разработанных для удовлетворения различных потребностей. По сравнению с предыдущими версиями, Qwen 2.5 был значительно улучшен как на этапе предварительного обучения, так и после него. Что касается предварительного обучения, мы увеличили объем высококачественных наборов данных для предварительного обучения с предыдущих 7 трлн токенов до 18 трлн токенов. Это обеспечивает прочную основу для здравого смысла, экспертных знаний и способностей к рассуждениям. Что касается послеобучения, мы реализуем сложное обучение с учителем с более чем 1 миллионом образцов, а также многоступенчатое обучение с подкреплением. Техники послеобучения улучшают предпочтения человека и значительно повышают качество генерации длинных текстов, анализ структурных данных и следование инструкциям. Для эффективной работы с разнообразными и различными сценариями использования мы представляем серию LLM Qwen2.5 в различных размерах. Открытые модели включают базовые и модели, настроенные на инструкции, а также доступны квантованные версии. Кроме того, для хостинговых решений проприетарные модели включают два варианта смеси экспертов (MoE): Qwen2.5-Turbo и Qwen2.5-Plus, оба доступны из Alibaba Cloud Model Studio. Qwen2.5 продемонстрировал высокую производительность на широком спектре показателей, оценивающих понимание языка, рассуждения, математику, программирование, соответствие предпочтениям человека и т. д. В частности, открытая флагманская модель Qwen2.5-72B-Instruct превосходит ряд открытых и проприетарных моделей и демонстрирует конкурентоспособную производительность по сравнению с передовой открытой моделью весом Llama-3-405B-Instruct, которая примерно в 5 раз больше. Qwen2.5-Turbo и Qwen2.5-Plus предлагают превосходную эффективность по стоимости, обеспечивая конкурентоспособность по сравнению с GPT-4o-mini и GPT-4o соответственно. Кроме того, в качестве основы модели Qwen2.5 сыграли ключевую роль в обучении специализированных моделей, таких как Qwen2.5-Math, Qwen2.5-Coder, QwQ и мультимодальные модели.