ChatPaper.aiChatPaper

Nouvelles tendances pour la traduction automatique moderne avec des modèles de raisonnement à grande échelle

New Trends for Modern Machine Translation with Large Reasoning Models

March 13, 2025
Auteurs: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI

Résumé

Les récents progrès des modèles de raisonnement à grande échelle (Large Reasoning Models, LRMs), en particulier ceux qui exploitent le raisonnement en chaîne de pensée (Chain-of-Thought, CoT), ont ouvert de toutes nouvelles possibilités pour la traduction automatique (Machine Translation, MT). Ce document de position soutient que les LRMs ont profondément transformé les paradigmes traditionnels de la traduction neuronale ainsi que ceux basés sur les modèles de langage de grande taille (LLMs), en reformulant la traduction comme une tâche de raisonnement dynamique nécessitant une compréhension et un raisonnement contextuels, culturels et linguistiques. Nous identifions trois changements fondamentaux : 1) la cohérence contextuelle, où les LRMs résolvent les ambiguïtés et préservent la structure du discours grâce à un raisonnement explicite sur des contextes complexes ou même l'absence de contexte ; 2) l'intentionnalité culturelle, permettant aux modèles d'adapter leurs sorties en inférant l'intention du locuteur, les attentes du public et les normes socio-linguistiques ; 3) l'auto-réflexion, où les LRMs peuvent effectuer une auto-réflexion pendant l'inférence pour corriger les erreurs potentielles dans la traduction, en particulier dans des cas extrêmement bruités, montrant ainsi une meilleure robustesse par rapport à une simple traduction de type X->Y. Nous explorons divers scénarios de traduction, notamment la traduction stylisée, la traduction au niveau du document et la traduction multimodale, en présentant des exemples empiriques qui démontrent la supériorité des LRMs en traduction. Nous identifions également plusieurs phénomènes intéressants pour les LRMs dans le domaine de la traduction, comme la traduction auto-pivot, ainsi que des défis critiques tels que la sur-localisation dans la traduction et l'efficacité de l'inférence. En conclusion, nous pensons que les LRMs redéfinissent les systèmes de traduction non plus comme de simples convertisseurs de texte, mais comme des agents cognitifs multilingues capables de raisonner sur le sens au-delà du texte. Ce changement de paradigme nous incite à repenser les problèmes de traduction au-delà des scénarios traditionnels, dans un contexte beaucoup plus large avec les LRMs - et ce que nous pouvons accomplir grâce à eux.
English
Recent advances in Large Reasoning Models (LRMs), particularly those leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility for Machine Translation (MT). This position paper argues that LRMs substantially transformed traditional neural MT as well as LLMs-based MT paradigms by reframing translation as a dynamic reasoning task that requires contextual, cultural, and linguistic understanding and reasoning. We identify three foundational shifts: 1) contextual coherence, where LRMs resolve ambiguities and preserve discourse structure through explicit reasoning over cross-sentence and complex context or even lack of context; 2) cultural intentionality, enabling models to adapt outputs by inferring speaker intent, audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can perform self-reflection during the inference time to correct the potential errors in translation especially extremely noisy cases, showing better robustness compared to simply mapping X->Y translation. We explore various scenarios in translation including stylized translation, document-level translation and multimodal translation by showcasing empirical examples that demonstrate the superiority of LRMs in translation. We also identify several interesting phenomenons for LRMs for MT including auto-pivot translation as well as the critical challenges such as over-localisation in translation and inference efficiency. In conclusion, we think that LRMs redefine translation systems not merely as text converters but as multilingual cognitive agents capable of reasoning about meaning beyond the text. This paradigm shift reminds us to think of problems in translation beyond traditional translation scenarios in a much broader context with LRMs - what we can achieve on top of it.

Summary

AI-Generated Summary

PDF232March 14, 2025