Technischer Bericht zu Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
papers.authors: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
papers.abstract
In diesem Bericht stellen wir Hunyuan-MT-7B vor, unser erstes Open-Source-Modell für mehrsprachige Übersetzung, das bidirektionale Übersetzungen über 33 Hauptsprachen hinweg unterstützt und dabei einen besonderen Schwerpunkt auf die Übersetzung zwischen Mandarin und mehreren ethnischen Minderheitensprachen sowie Dialekten legt. Darüber hinaus führen wir, um verschiedene Übersetzungsszenarien zu bedienen und die Modellleistung zur Testzeit zu verbessern, Hunyuan-MT-Chimera-7B ein, ein Übersetzungsmodell, das vom langsamen Denkmodus inspiriert ist. Dieses Modell integriert mehrere Ausgaben, die vom Hunyuan-MT-7B-Modell unter verschiedenen Parametereinstellungen generiert werden, und erreicht dadurch eine Leistung, die der von konventionellen langsamen Denkmodellen basierend auf Chain-of-Thought (CoT) überlegen ist. Die Entwicklung unserer Modelle folgt einem ganzheitlichen Trainingsprozess, der speziell für mehrsprachige Übersetzungen entwickelt wurde. Dieser beginnt mit allgemeinem und MT-orientiertem Pre-Training, um grundlegende Fähigkeiten aufzubauen, geht über Supervised Fine-Tuning (SFT) zur Aufgabenanpassung und gipfelt in einer fortgeschrittenen Ausrichtung durch Reinforcement Learning (RL) und Weak-to-Strong RL. Durch umfangreiche Experimente zeigen wir, dass sowohl Hunyuan-MT-7B als auch Hunyuan-MT-Chimera-7B alle übersetzungsspezifischen Modelle vergleichbarer Parametergröße und die meisten der SOTA-Großmodelle deutlich übertreffen, insbesondere bei der Übersetzung zwischen Mandarin und Minderheitensprachen sowie Dialekten. In der WMT2025 Shared Task (General Machine Translation) demonstrieren unsere Modelle state-of-the-art-Leistungen und belegen den ersten Platz in 30 von 31 Sprachpaaren. Dieses Ergebnis unterstreicht die Robustheit unserer Modelle über ein breites linguistisches Spektrum hinweg, das sowohl Hochressourcensprachen wie Chinesisch, Englisch und Japanisch als auch Niedrigressourcensprachen wie Tschechisch, Marathi, Estnisch und Isländisch umfasst.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.