Relatório Técnico do Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
Autores: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
Resumo
Neste relatório, apresentamos o Hunyuan-MT-7B, nosso primeiro modelo de tradução multilíngue de código aberto, que suporta tradução bidirecional entre 33 idiomas principais e dá ênfase especial à tradução entre o mandarim e várias línguas minoritárias, bem como dialetos. Além disso, para atender e abordar diversos cenários de tradução e melhorar o desempenho do modelo durante os testes, introduzimos o Hunyuan-MT-Chimera-7B, um modelo de tradução inspirado no modo de pensamento lento. Este modelo integra múltiplas saídas geradas pelo modelo Hunyuan-MT-7B sob diferentes configurações de parâmetros, alcançando assim um desempenho superior ao dos modelos convencionais de pensamento lento baseados em Chain-of-Thought (CoT). O desenvolvimento de nossos modelos segue um processo de treinamento holístico especificamente projetado para tradução multilíngue, que começa com pré-treinamento geral e orientado para MT para construir capacidades fundamentais, prossegue com Ajuste Fino Supervisionado (SFT) para adaptação específica à tarefa e culmina em alinhamento avançado por meio de Aprendizado por Reforço (RL) e RL de fraco para forte. Por meio de experimentação abrangente, demonstramos que tanto o Hunyuan-MT-7B quanto o Hunyuan-MT-Chimera-7B superam significativamente todos os modelos específicos para tradução de tamanho de parâmetro comparável e a maioria dos grandes modelos SOTA, particularmente na tarefa de tradução entre mandarim e línguas minoritárias, bem como dialetos. Na tarefa compartilhada WMT2025 (Tradução Automática Geral), nossos modelos demonstram desempenho de ponta, ocupando o primeiro lugar em 30 dos 31 pares de idiomas. Esse resultado destaca a robustez de nossos modelos em um espectro linguístico diversificado, abrangendo idiomas de alto recurso, como chinês, inglês e japonês, bem como idiomas de baixo recurso, incluindo tcheco, marata, estoniano e islandês.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.