Оптимизированный глубокий перевод на основе долгой цепочки мыслей (DRT-o1)
DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
December 23, 2024
Авторы: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou
cs.AI
Аннотация
Недавно модели, подобные O1, стали представительными примерами, иллюстрирующими эффективность длинной цепочки мыслей (CoT) в задачах рассуждений, таких как математические и программистские задачи. В данной статье мы представляем DRT-o1, попытку перенести успех длинного CoT на нейронный машинный перевод (MT). В частности, с учетом литературных произведений, которые могут содержать сравнения и метафоры, перевод этих текстов на целевой язык практически очень сложен из-за культурных различий. В таких случаях дословный перевод часто не способен эффективно передать задуманное значение. Даже для профессиональных человеческих переводчиков требуется значительное внимание к сохранению семантики на протяжении процесса перевода. Для имитации способности LLM к долгим размышлениям в MT мы сначала извлекаем предложения, содержащие сравнения или метафоры, из существующих литературных произведений, а затем разрабатываем мультиагентную структуру для перевода этих предложений с помощью долгих размышлений. В мультиагентной структуре используется переводчик для итеративного перевода исходного предложения под рекомендациями, предоставленными советником. Для обеспечения эффективности долгих размышлений также используется оценщик, который определяет, лучше ли текущий перевод, чем предыдущий, или нет. Таким образом, мы собираем десятки тысяч данных долгих размышлений MT, которые используются для обучения нашего DRT-o1. Экспериментальные результаты по литературному переводу демонстрируют эффективность DRT-o1. Используя Qwen2.5-7B и Qwen2.5-14B в качестве основ, улучшение, достигнутое DRT-o1, составляет 7.33~8.26 BLEU и 1.66~3.36 CometScore. Кроме того, DRT-o1-7B может превзойти QwQ-32B-Preview на 7.82 BLEU и 1.46 CometScore, что подтверждает его эффективность. Проект доступен по ссылке https://github.com/krystalan/DRT-o1.
English
Recently, O1-like models have emerged as representative examples,
illustrating the effectiveness of long chain-of-thought (CoT) in reasoning
tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an
attempt to bring the success of long CoT to neural machine translation (MT).
Specifically, in view of the literature books that might involve similes and
metaphors, translating these texts to a target language is very difficult in
practice due to cultural differences. In such cases, literal translation often
fails to convey the intended meaning effectively. Even for professional human
translators, considerable thought must be given to preserving semantics
throughout the translation process. To simulate LLMs' long thought ability in
MT, we first mine sentences containing similes or metaphors from existing
literature books, and then develop a multi-agent framework to translate these
sentences via long thought. In the multi-agent framework, a translator is used
to iteratively translate the source sentence under the suggestions provided by
an advisor. To ensure the effectiveness of the long thoughts, an evaluator is
also employed to judge whether the translation in the current round is better
than the previous one or not. In this manner, we collect tens of thousands of
long-thought MT data, which is used to train our DRT-o1. The experimental
results on literature translation demonstrate the effectiveness of the DRT-o1.
Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by
DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can
outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its
effectiveness. The project is available at https://github.com/krystalan/DRT-o1Summary
AI-Generated Summary