Nouvelles tendances pour la traduction automatique moderne avec des modèles de raisonnement à grande échelle
New Trends for Modern Machine Translation with Large Reasoning Models
March 13, 2025
Auteurs: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI
Résumé
Les récents progrès des modèles de raisonnement à grande échelle (Large Reasoning Models, LRMs), en particulier ceux qui exploitent le raisonnement en chaîne de pensée (Chain-of-Thought, CoT), ont ouvert de toutes nouvelles possibilités pour la traduction automatique (Machine Translation, MT). Ce document de position soutient que les LRMs ont profondément transformé les paradigmes traditionnels de la traduction neuronale ainsi que ceux basés sur les modèles de langage de grande taille (LLMs), en reformulant la traduction comme une tâche de raisonnement dynamique nécessitant une compréhension et un raisonnement contextuels, culturels et linguistiques. Nous identifions trois changements fondamentaux : 1) la cohérence contextuelle, où les LRMs résolvent les ambiguïtés et préservent la structure du discours grâce à un raisonnement explicite sur des contextes complexes ou même l'absence de contexte ; 2) l'intentionnalité culturelle, permettant aux modèles d'adapter leurs sorties en inférant l'intention du locuteur, les attentes du public et les normes socio-linguistiques ; 3) l'auto-réflexion, où les LRMs peuvent effectuer une auto-réflexion pendant l'inférence pour corriger les erreurs potentielles dans la traduction, en particulier dans des cas extrêmement bruités, montrant ainsi une meilleure robustesse par rapport à une simple traduction de type X->Y. Nous explorons divers scénarios de traduction, notamment la traduction stylisée, la traduction au niveau du document et la traduction multimodale, en présentant des exemples empiriques qui démontrent la supériorité des LRMs en traduction. Nous identifions également plusieurs phénomènes intéressants pour les LRMs dans le domaine de la traduction, comme la traduction auto-pivot, ainsi que des défis critiques tels que la sur-localisation dans la traduction et l'efficacité de l'inférence. En conclusion, nous pensons que les LRMs redéfinissent les systèmes de traduction non plus comme de simples convertisseurs de texte, mais comme des agents cognitifs multilingues capables de raisonner sur le sens au-delà du texte. Ce changement de paradigme nous incite à repenser les problèmes de traduction au-delà des scénarios traditionnels, dans un contexte beaucoup plus large avec les LRMs - et ce que nous pouvons accomplir grâce à eux.
English
Recent advances in Large Reasoning Models (LRMs), particularly those
leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility
for Machine Translation (MT). This position paper argues that LRMs
substantially transformed traditional neural MT as well as LLMs-based MT
paradigms by reframing translation as a dynamic reasoning task that requires
contextual, cultural, and linguistic understanding and reasoning. We identify
three foundational shifts: 1) contextual coherence, where LRMs resolve
ambiguities and preserve discourse structure through explicit reasoning over
cross-sentence and complex context or even lack of context; 2) cultural
intentionality, enabling models to adapt outputs by inferring speaker intent,
audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can
perform self-reflection during the inference time to correct the potential
errors in translation especially extremely noisy cases, showing better
robustness compared to simply mapping X->Y translation. We explore various
scenarios in translation including stylized translation, document-level
translation and multimodal translation by showcasing empirical examples that
demonstrate the superiority of LRMs in translation. We also identify several
interesting phenomenons for LRMs for MT including auto-pivot translation as
well as the critical challenges such as over-localisation in translation and
inference efficiency. In conclusion, we think that LRMs redefine translation
systems not merely as text converters but as multilingual cognitive agents
capable of reasoning about meaning beyond the text. This paradigm shift reminds
us to think of problems in translation beyond traditional translation scenarios
in a much broader context with LRMs - what we can achieve on top of it.Summary
AI-Generated Summary