DRT-o1: Traducción Optimizada Profunda mediante una Larga Cadena de Pensamiento
DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
December 23, 2024
Autores: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou
cs.AI
Resumen
Recientemente, han surgido modelos similares a O1 como ejemplos representativos, ilustrando la efectividad de largas cadenas de pensamiento (CoT) en tareas de razonamiento como matemáticas y de codificación. En este artículo, presentamos DRT-o1, un intento de llevar el éxito de CoT largo a la traducción automática neuronal (MT). Específicamente, teniendo en cuenta los libros de literatura que podrían incluir símiles y metáforas, traducir estos textos a un idioma destino es muy difícil en la práctica debido a las diferencias culturales. En tales casos, la traducción literal a menudo no logra transmitir el significado deseado de manera efectiva. Incluso para traductores humanos profesionales, se debe prestar considerable atención a preservar la semántica a lo largo del proceso de traducción. Para simular la capacidad de pensamiento largo de LLMs en MT, primero extraemos oraciones que contienen símiles o metáforas de libros de literatura existentes, y luego desarrollamos un marco multiagente para traducir estas oraciones a través de un pensamiento largo. En el marco multiagente, se utiliza un traductor para traducir de manera iterativa la oración fuente bajo las sugerencias proporcionadas por un asesor. Para garantizar la efectividad de los pensamientos largos, también se emplea un evaluador para juzgar si la traducción en la ronda actual es mejor que la anterior o no. De esta manera, recopilamos decenas de miles de datos de MT de pensamiento largo, que se utilizan para entrenar nuestro DRT-o1. Los resultados experimentales en la traducción de literatura demuestran la efectividad del DRT-o1. Utilizando Qwen2.5-7B y Qwen2.5-14B como estructuras base, la mejora aportada por DRT-o1 alcanza un BLEU de 7.33 a 8.26 y un CometScore de 1.66 a 3.36. Además, DRT-o1-7B puede superar a QwQ-32B-Preview en 7.82 BLEU y 1.46 CometScore, mostrando su efectividad. El proyecto está disponible en https://github.com/krystalan/DRT-o1.
English
Recently, O1-like models have emerged as representative examples,
illustrating the effectiveness of long chain-of-thought (CoT) in reasoning
tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an
attempt to bring the success of long CoT to neural machine translation (MT).
Specifically, in view of the literature books that might involve similes and
metaphors, translating these texts to a target language is very difficult in
practice due to cultural differences. In such cases, literal translation often
fails to convey the intended meaning effectively. Even for professional human
translators, considerable thought must be given to preserving semantics
throughout the translation process. To simulate LLMs' long thought ability in
MT, we first mine sentences containing similes or metaphors from existing
literature books, and then develop a multi-agent framework to translate these
sentences via long thought. In the multi-agent framework, a translator is used
to iteratively translate the source sentence under the suggestions provided by
an advisor. To ensure the effectiveness of the long thoughts, an evaluator is
also employed to judge whether the translation in the current round is better
than the previous one or not. In this manner, we collect tens of thousands of
long-thought MT data, which is used to train our DRT-o1. The experimental
results on literature translation demonstrate the effectiveness of the DRT-o1.
Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by
DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can
outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its
effectiveness. The project is available at https://github.com/krystalan/DRT-o1Summary
AI-Generated Summary