ChatPaper.aiChatPaper

ExTrans: 예시 강화 강화 학습을 통한 다국어 심층 추론 번역

ExTrans: Multilingual Deep Reasoning Translation via Exemplar-Enhanced Reinforcement Learning

May 19, 2025
저자: Jiaan Wang, Fandong Meng, Jie Zhou
cs.AI

초록

최근 OpenAI-o1 및 DeepSeek-R1과 같은 대형 추론 모델(LRMs)의 등장은 수학 및 코딩과 같은 복잡한 문제에서 인상적인 성능을 보여주고 있다. 일부 선구적인 연구들은 이러한 LRMs의 성공을 신경 기계 번역(MT)에 적용하려는 시도를 하고 있다. 이들은 강화 학습(RL)을 통해 깊은 추론 능력을 갖춘 MT용 LRMs를 구축하려고 한다. 일부 진전이 있었음에도 불구하고, 이러한 시도들은 일반적으로 영어와 중국어와 같은 고자원 언어에 초점을 맞추고 있어 다른 언어에서의 성능은 불분명하다. 또한, 기존 연구에서의 보상 모델링 방법은 MT에서 강화 학습의 잠재력을 완전히 발휘하지 못하고 있다. 본 연구에서는 먼저 정책 MT 모델의 번역 결과를 강력한 LRM(즉, DeepSeek-R1-671B)과 비교하고, 이를 정량화하여 보상을 제공하는 새로운 보상 모델링 방법을 설계한다. 실험 결과는 이 보상 모델링 방법의 우수성을 입증한다. Qwen2.5-7B-Instruct를 백본으로 사용하여 훈련된 모델은 문학 번역에서 새로운 최첨단 성능을 달성하며, OpenAI-o1 및 DeepSeek-R1을 포함한 강력한 LRMs를 능가한다. 더 나아가, 우리는 이 방법을 11개 언어로 구성된 다국어 설정으로 확장한다. RL에서 신중하게 설계된 경량 보상 모델링을 통해 단일 방향에서의 강력한 MT 능력을 다중(즉, 90개) 번역 방향으로 간단히 전이할 수 있으며, 인상적인 다국어 MT 성능을 달성한다.
English
In recent years, the emergence of large reasoning models (LRMs), such as OpenAI-o1 and DeepSeek-R1, has shown impressive capabilities in complex problems, e.g., mathematics and coding. Some pioneering studies attempt to bring the success of LRMs in neural machine translation (MT). They try to build LRMs with deep reasoning MT ability via reinforcement learning (RL). Despite some progress that has been made, these attempts generally focus on several high-resource languages, e.g., English and Chinese, leaving the performance on other languages unclear. Besides, the reward modeling methods in previous work do not fully unleash the potential of reinforcement learning in MT. In this work, we first design a new reward modeling method that compares the translation results of the policy MT model with a strong LRM (i.e., DeepSeek-R1-671B), and quantifies the comparisons to provide rewards. Experimental results demonstrate the superiority of the reward modeling method. Using Qwen2.5-7B-Instruct as the backbone, the trained model achieves the new state-of-the-art performance in literary translation, and outperforms strong LRMs including OpenAI-o1 and DeepSeeK-R1. Furthermore, we extend our method to the multilingual settings with 11 languages. With a carefully designed lightweight reward modeling in RL, we can simply transfer the strong MT ability from a single direction into multiple (i.e., 90) translation directions and achieve impressive multilingual MT performance.

Summary

AI-Generated Summary

PDF32May 20, 2025