Informe Técnico de Hunyuan-MT
Hunyuan-MT Technical Report
September 5, 2025
Autores: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
Resumen
En este informe, presentamos Hunyuan-MT-7B, nuestro primer modelo de traducción multilingüe de código abierto, que soporta traducción bidireccional entre 33 idiomas principales y hace especial énfasis en la traducción entre el mandarín y varias lenguas minoritarias, así como dialectos. Además, para abordar diversos escenarios de traducción y mejorar el rendimiento del modelo durante las pruebas, introducimos Hunyuan-MT-Chimera-7B, un modelo de traducción inspirado en el modo de pensamiento lento. Este modelo integra múltiples salidas generadas por el modelo Hunyuan-MT-7B bajo diferentes configuraciones de parámetros, logrando así un rendimiento superior al de los modelos convencionales de pensamiento lento basados en Chain-of-Thought (CoT). El desarrollo de nuestros modelos sigue un proceso de entrenamiento holístico específicamente diseñado para la traducción multilingüe, que comienza con un preentrenamiento general y orientado a la traducción automática para construir capacidades fundamentales, continúa con un Ajuste Supervisado (SFT) para la adaptación a tareas específicas, y culmina con una alineación avanzada mediante Aprendizaje por Refuerzo (RL) y RL de débil a fuerte. A través de experimentación exhaustiva, demostramos que tanto Hunyuan-MT-7B como Hunyuan-MT-Chimera-7B superan significativamente a todos los modelos específicos de traducción de tamaño de parámetros comparable y a la mayoría de los modelos grandes SOTA, particularmente en la tarea de traducción entre el mandarín y lenguas minoritarias, así como dialectos. En la tarea compartida de WMT2025 (Traducción Automática General), nuestros modelos demuestran un rendimiento de vanguardia, ocupando el primer lugar en 30 de los 31 pares de idiomas. Este resultado resalta la robustez de nuestros modelos en un espectro lingüístico diverso, que abarca idiomas de alto recurso como el chino, inglés y japonés, así como idiomas de bajo recurso, incluyendo checo, maratí, estonio e islandés.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.