Technisch Rapport Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
Auteurs: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
Samenvatting
In dit rapport introduceren we Hunyuan-MT-7B, ons eerste open-source meertalige vertaalmodel, dat bidirectionele vertaling ondersteunt voor 33 belangrijke talen, met een speciale nadruk op vertaling tussen Mandarijn en verschillende etnische minderheidstalen en dialecten. Bovendien introduceren we, om diverse vertaal scenario's te bedienen en de modelprestaties tijdens het testen te verbeteren, Hunyuan-MT-Chimera-7B, een vertaalmodel geïnspireerd door de langzame denkmodus. Dit model integreert meerdere uitvoeren gegenereerd door het Hunyuan-MT-7B-model onder verschillende parameterinstellingen, waardoor het prestaties bereikt die superieur zijn aan die van conventionele langzaam-denkende modellen gebaseerd op Chain-of-Thought (CoT). De ontwikkeling van onze modellen volgt een holistisch trainingsproces specifiek ontworpen voor meertalige vertaling, dat begint met algemene en MT-gerichte vooropleiding om fundamentele capaciteiten op te bouwen, doorgaat met Supervised Fine-Tuning (SFT) voor taakspecifieke aanpassing, en culmineert in geavanceerde afstemming via Reinforcement Learning (RL) en zwak-naar-sterk RL. Door uitgebreide experimenten tonen we aan dat zowel Hunyuan-MT-7B als Hunyuan-MT-Chimera-7B aanzienlijk beter presteren dan alle vertaalspecifieke modellen van vergelijkbare parameteromvang en de meeste SOTA grote modellen, met name bij de taak van vertaling tussen Mandarijn en minderheidstalen en dialecten. In de WMT2025 gedeelde taak (General Machine Translation) demonstreren onze modellen state-of-the-art prestaties, waarbij ze de eerste plaats behalen in 30 van de 31 taalparen. Dit resultaat benadrukt de robuustheid van onze modellen over een diverse linguïstische spectrum, variërend van hoog-resource talen zoals Chinees, Engels en Japans, tot laag-resource talen zoals Tsjechisch, Marathi, Ests en IJslands.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.