ChatPaper.aiChatPaper

Technischer Bericht zu Hunyuan-MT

Hunyuan-MT Technical Report

September 5, 2025
papers.authors: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI

papers.abstract

In diesem Bericht stellen wir Hunyuan-MT-7B vor, unser erstes Open-Source-Modell für mehrsprachige Übersetzung, das bidirektionale Übersetzungen über 33 Hauptsprachen hinweg unterstützt und dabei einen besonderen Schwerpunkt auf die Übersetzung zwischen Mandarin und mehreren ethnischen Minderheitensprachen sowie Dialekten legt. Darüber hinaus führen wir, um verschiedene Übersetzungsszenarien zu bedienen und die Modellleistung zur Testzeit zu verbessern, Hunyuan-MT-Chimera-7B ein, ein Übersetzungsmodell, das vom langsamen Denkmodus inspiriert ist. Dieses Modell integriert mehrere Ausgaben, die vom Hunyuan-MT-7B-Modell unter verschiedenen Parametereinstellungen generiert werden, und erreicht dadurch eine Leistung, die der von konventionellen langsamen Denkmodellen basierend auf Chain-of-Thought (CoT) überlegen ist. Die Entwicklung unserer Modelle folgt einem ganzheitlichen Trainingsprozess, der speziell für mehrsprachige Übersetzungen entwickelt wurde. Dieser beginnt mit allgemeinem und MT-orientiertem Pre-Training, um grundlegende Fähigkeiten aufzubauen, geht über Supervised Fine-Tuning (SFT) zur Aufgabenanpassung und gipfelt in einer fortgeschrittenen Ausrichtung durch Reinforcement Learning (RL) und Weak-to-Strong RL. Durch umfangreiche Experimente zeigen wir, dass sowohl Hunyuan-MT-7B als auch Hunyuan-MT-Chimera-7B alle übersetzungsspezifischen Modelle vergleichbarer Parametergröße und die meisten der SOTA-Großmodelle deutlich übertreffen, insbesondere bei der Übersetzung zwischen Mandarin und Minderheitensprachen sowie Dialekten. In der WMT2025 Shared Task (General Machine Translation) demonstrieren unsere Modelle state-of-the-art-Leistungen und belegen den ersten Platz in 30 von 31 Sprachpaaren. Dieses Ergebnis unterstreicht die Robustheit unserer Modelle über ein breites linguistisches Spektrum hinweg, das sowohl Hochressourcensprachen wie Chinesisch, Englisch und Japanisch als auch Niedrigressourcensprachen wie Tschechisch, Marathi, Estnisch und Isländisch umfasst.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source multilingual translation model, which supports bidirectional translation across 33 major languages and places a special emphasis on translation between Mandarin and several ethnic minority languages as well as dialects. Furthermore, to serve and address diverse translation scenarios and enhance model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a translation model inspired by the slow thinking mode. This model integrates multiple outputs generated by the Hunyuan-MT-7B model under varying parameter settings, thereby achieving performance superior to that of conventional slow-thinking models based on Chain-of-Thought (CoT). The development of our models follows a holistic training process specifically engineered for multilingual translation, which begins with general and MT-oriented pre-training to build foundational capabilities, proceeds to Supervised Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models of comparable parameter size and most of the SOTA large models, particularly on the task of translation between Mandarin and minority languages as well as dialects. In the WMT2025 shared task (General Machine Translation), our models demonstrate state-of-the-art performance, ranking first in 30 out of 31 language pairs. This result highlights the robustness of our models across a diverse linguistic spectrum, encompassing high-resource languages such as Chinese, English, and Japanese, as well as low-resource languages including Czech, Marathi, Estonian, and Icelandic.
PDF103September 11, 2025