ChatPaper.aiChatPaper

DRT-o1 : Traduction Optimisée par Raisonnement Profond via Longue Chaîne de Pensée

DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought

December 23, 2024
Auteurs: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou
cs.AI

Résumé

Récemment, des modèles de type O1 ont émergé comme des exemples représentatifs, illustrant l'efficacité de longues chaînes de pensées (CoT) dans des tâches de raisonnement telles que les tâches mathématiques et de codage. Dans cet article, nous présentons DRT-o1, une tentative visant à transposer le succès des longues CoT à la traduction neuronale automatique (MT). En particulier, étant donné les livres de littérature qui peuvent contenir des comparaisons et des métaphores, traduire ces textes dans une langue cible est très difficile en pratique en raison des différences culturelles. Dans de tels cas, la traduction littérale échoue souvent à transmettre efficacement le sens voulu. Même pour les traducteurs humains professionnels, une réflexion considérable doit être accordée à la préservation de la sémantique tout au long du processus de traduction. Pour simuler la capacité de longue réflexion des LLMs en MT, nous extrayons d'abord des phrases contenant des comparaisons ou des métaphores à partir de livres de littérature existants, puis développons un cadre multi-agent pour traduire ces phrases via une pensée prolongée. Dans le cadre multi-agent, un traducteur est utilisé pour traduire de manière itérative la phrase source sous les suggestions fournies par un conseiller. Pour garantir l'efficacité des longues réflexions, un évaluateur est également employé pour juger si la traduction dans le tour actuel est meilleure que la précédente ou non. De cette manière, nous collectons des dizaines de milliers de données de MT à longue réflexion, qui sont utilisées pour entraîner notre DRT-o1. Les résultats expérimentaux sur la traduction littéraire démontrent l'efficacité du DRT-o1. En utilisant Qwen2.5-7B et Qwen2.5-14B comme bases, l'amélioration apportée par DRT-o1 atteint 7,33 à 8,26 BLEU et 1,66 à 3,36 CometScore. De plus, DRT-o1-7B peut surpasser QwQ-32B-Preview de 7,82 BLEU et 1,46 CometScore, démontrant son efficacité. Le projet est disponible sur https://github.com/krystalan/DRT-o1.
English
Recently, O1-like models have emerged as representative examples, illustrating the effectiveness of long chain-of-thought (CoT) in reasoning tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an attempt to bring the success of long CoT to neural machine translation (MT). Specifically, in view of the literature books that might involve similes and metaphors, translating these texts to a target language is very difficult in practice due to cultural differences. In such cases, literal translation often fails to convey the intended meaning effectively. Even for professional human translators, considerable thought must be given to preserving semantics throughout the translation process. To simulate LLMs' long thought ability in MT, we first mine sentences containing similes or metaphors from existing literature books, and then develop a multi-agent framework to translate these sentences via long thought. In the multi-agent framework, a translator is used to iteratively translate the source sentence under the suggestions provided by an advisor. To ensure the effectiveness of the long thoughts, an evaluator is also employed to judge whether the translation in the current round is better than the previous one or not. In this manner, we collect tens of thousands of long-thought MT data, which is used to train our DRT-o1. The experimental results on literature translation demonstrate the effectiveness of the DRT-o1. Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its effectiveness. The project is available at https://github.com/krystalan/DRT-o1

Summary

AI-Generated Summary

PDF224December 24, 2024