Rapport Technique de Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
papers.authors: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
papers.abstract
Dans ce rapport, nous présentons Hunyuan-MT-7B, notre premier modèle de traduction multilingue open source, qui prend en charge la traduction bidirectionnelle entre 33 langues majeures et accorde une attention particulière à la traduction entre le mandarin et plusieurs langues minoritaires ainsi que des dialectes. De plus, pour répondre à divers scénarios de traduction et améliorer les performances du modèle lors des tests, nous introduisons Hunyuan-MT-Chimera-7B, un modèle de traduction inspiré du mode de pensée lente. Ce modèle intègre plusieurs sorties générées par le modèle Hunyuan-MT-7B sous différents réglages de paramètres, atteignant ainsi des performances supérieures à celles des modèles conventionnels de pensée lente basés sur le Chain-of-Thought (CoT). Le développement de nos modèles suit un processus de formation holistique spécifiquement conçu pour la traduction multilingue, qui commence par un pré-entraînement général et orienté vers la traduction automatique pour construire des capacités fondamentales, se poursuit par un Fine-Tuning Supervisé (SFT) pour l'adaptation à des tâches spécifiques, et se termine par un alignement avancé via l'apprentissage par renforcement (RL) et le RL faible-vers-fort. À travers une expérimentation approfondie, nous démontrons que Hunyuan-MT-7B et Hunyuan-MT-Chimera-7B surpassent significativement tous les modèles spécifiques à la traduction de taille comparable et la plupart des grands modèles SOTA, en particulier sur la tâche de traduction entre le mandarin et les langues minoritaires ainsi que les dialectes. Dans la tâche partagée WMT2025 (Traduction Automatique Générale), nos modèles démontrent des performances de pointe, se classant premiers dans 30 des 31 paires de langues. Ce résultat met en évidence la robustesse de nos modèles à travers un spectre linguistique diversifié, englobant des langues à ressources élevées comme le chinois, l'anglais et le japonais, ainsi que des langues à faibles ressources telles que le tchèque, le marathi, l'estonien et l'islandais.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.