Hunyuan-MT 기술 보고서
Hunyuan-MT Technical Report
September 5, 2025
저자: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang
cs.AI
초록
본 보고서에서는 33개 주요 언어 간의 양방향 번역을 지원하며, 특히 중국어와 여러 소수 민족 언어 및 방언 간의 번역에 중점을 둔 첫 오픈소스 다국어 번역 모델인 Hunyuan-MT-7B를 소개합니다. 더 나아가 다양한 번역 시나리오를 지원하고 테스트 시 모델 성능을 향상시키기 위해, 느린 사고 모드에서 영감을 받은 번역 모델인 Hunyuan-MT-Chimera-7B를 소개합니다. 이 모델은 다양한 매개변수 설정 하에서 Hunyuan-MT-7B 모델이 생성한 다중 출력을 통합함으로써, Chain-of-Thought(CoT) 기반의 기존 느린 사고 모델보다 우수한 성능을 달성합니다. 우리 모델의 개발은 다국어 번역을 위해 특별히 설계된 종합적인 학습 프로세스를 따릅니다. 이 프로세스는 기본 능력을 구축하기 위한 일반적이고 MT 지향적인 사전 학습으로 시작하여, 특정 작업에 적응하기 위한 지도 미세 조정(SFT)을 거치고, 강화 학습(RL) 및 약한-강한 RL을 통한 고급 정렬로 마무리됩니다. 포괄적인 실험을 통해 Hunyuan-MT-7B와 Hunyuan-MT-Chimera-7B가 모두 동일한 매개변수 크기의 번역 전용 모델과 대부분의 SOTA 대형 모델을 크게 능가하며, 특히 중국어와 소수 민족 언어 및 방언 간 번역 작업에서 우수한 성능을 보임을 입증했습니다. WMT2025 공유 작업(일반 기계 번역)에서 우리 모델은 31개 언어 쌍 중 30개에서 1위를 차지하며 최첨단 성능을 보여주었습니다. 이 결과는 중국어, 영어, 일본어와 같은 고자원 언어뿐만 아니라 체코어, 마라티어, 에스토니아어, 아이슬란드어와 같은 저자원 언어를 포함한 다양한 언어 스펙트럼에서 우리 모델의 견고성을 강조합니다.
English
In this report, we introduce Hunyuan-MT-7B, our first open-source
multilingual translation model, which supports bidirectional translation across
33 major languages and places a special emphasis on translation between
Mandarin and several ethnic minority languages as well as dialects.
Furthermore, to serve and address diverse translation scenarios and enhance
model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a
translation model inspired by the slow thinking mode. This model integrates
multiple outputs generated by the Hunyuan-MT-7B model under varying parameter
settings, thereby achieving performance superior to that of conventional
slow-thinking models based on Chain-of-Thought (CoT). The development of our
models follows a holistic training process specifically engineered for
multilingual translation, which begins with general and MT-oriented
pre-training to build foundational capabilities, proceeds to Supervised
Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced
alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through
comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and
Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models
of comparable parameter size and most of the SOTA large models, particularly on
the task of translation between Mandarin and minority languages as well as
dialects. In the WMT2025 shared task (General Machine Translation), our models
demonstrate state-of-the-art performance, ranking first in 30 out of 31
language pairs. This result highlights the robustness of our models across a
diverse linguistic spectrum, encompassing high-resource languages such as
Chinese, English, and Japanese, as well as low-resource languages including
Czech, Marathi, Estonian, and Icelandic.