Технический отчет по Qwen3Qwen3 Technical Report
В данной работе мы представляем Qwen3, последнюю версию семейства моделей Qwen. Qwen3 включает в себя серию крупных языковых моделей (LLM), разработанных для повышения производительности, эффективности и многоязычных возможностей. Серия Qwen3 включает модели как с плотной архитектурой, так и с архитектурой Mixture-of-Expert (MoE), с масштабами параметров от 0,6 до 235 миллиардов. Ключевым нововведением в Qwen3 является интеграция режима мышления (для сложного, многошагового рассуждения) и режима без мышления (для быстрых, контекстно-зависимых ответов) в единую структуру. Это устраняет необходимость переключения между различными моделями, такими как модели, оптимизированные для чата (например, GPT-4o), и специализированные модели для рассуждений (например, QwQ-32B), и позволяет динамически переключать режимы в зависимости от запросов пользователя или шаблонов чата. Одновременно Qwen3 вводит механизм бюджета мышления, позволяющий пользователям адаптивно распределять вычислительные ресурсы во время вывода, тем самым балансируя задержку и производительность в зависимости от сложности задачи. Более того, используя знания флагманских моделей, мы значительно сокращаем вычислительные ресурсы, необходимые для создания моделей меньшего масштаба, при этом обеспечивая их высокую конкурентоспособность. Эмпирические оценки показывают, что Qwen3 достигает передовых результатов на различных тестах, включая задачи генерации кода, математического рассуждения, агентские задачи и т.д., конкурируя с более крупными моделями MoE и проприетарными моделями. По сравнению с предшественником Qwen2.5, Qwen3 расширяет поддержку многоязычности с 29 до 119 языков и диалектов, улучшая глобальную доступность за счет улучшенных возможностей межъязыкового понимания и генерации. Для обеспечения воспроизводимости и развития сообществом все модели Qwen3 доступны публично под лицензией Apache 2.0.