Rapporto Tecnico di Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
Autori: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
Abstract
In questo rapporto, presentiamo Hunyuan-MT-7B, il nostro primo modello open-source di traduzione multilingue, che supporta la traduzione bidirezionale tra 33 lingue principali e pone un'enfasi speciale sulla traduzione tra il mandarino e diverse lingue minoritarie nonché dialetti. Inoltre, per servire e affrontare scenari di traduzione diversificati e migliorare le prestazioni del modello durante i test, introduciamo Hunyuan-MT-Chimera-7B, un modello di traduzione ispirato al modo di pensiero lento. Questo modello integra molteplici output generati dal modello Hunyuan-MT-7B sotto diverse impostazioni di parametri, raggiungendo così prestazioni superiori rispetto ai modelli convenzionali di pensiero lento basati su Chain-of-Thought (CoT). Lo sviluppo dei nostri modelli segue un processo di formazione olistico specificamente progettato per la traduzione multilingue, che inizia con una pre-formazione generale e orientata alla traduzione per costruire capacità di base, procede con la Supervised Fine-Tuning (SFT) per l'adattamento specifico al compito e culmina in un allineamento avanzato attraverso il Reinforcement Learning (RL) e il weak-to-strong RL. Attraverso esperimenti completi, dimostriamo che sia Hunyuan-MT-7B che Hunyuan-MT-Chimera-7B superano significativamente tutti i modelli specifici per la traduzione di dimensioni comparabili e la maggior parte dei modelli SOTA di grandi dimensioni, in particolare nel compito di traduzione tra il mandarino e le lingue minoritarie nonché dialetti. Nel task condiviso WMT2025 (General Machine Translation), i nostri modelli dimostrano prestazioni all'avanguardia, classificandosi primi in 30 su 31 coppie di lingue. Questo risultato evidenzia la robustezza dei nostri modelli attraverso uno spettro linguistico diversificato, che comprende lingue ad alta risorsa come il cinese, l'inglese e il giapponese, nonché lingue a bassa risorsa tra cui il ceco, il marathi, l'estone e l'islandese.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.