大規模推論モデルを用いた現代機械翻訳の新たな潮流
New Trends for Modern Machine Translation with Large Reasoning Models
March 13, 2025
著者: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI
要旨
大規模推論モデル(LRM)、特に連鎖思考推論(CoT)を活用した最近の進展は、機械翻訳(MT)に全く新しい可能性を開きました。本ポジションペーパーでは、LRMが伝統的なニューラルMTおよびLLMベースのMTパラダイムを大幅に変革し、翻訳を文脈的、文化的、言語的理解と推論を必要とする動的な推論タスクとして再定義したと論じています。我々は3つの根本的なシフトを特定します:1)文脈的一貫性、LRMは文を超えた複雑な文脈や文脈の欠如を明示的に推論することで曖昧さを解決し、談話構造を保持する、2)文化的意図性、話者の意図、聴衆の期待、社会言語学的規範を推論することで出力を適応させる、3)自己反映、LRMは推論時に自己反映を行い、特に極めてノイジーなケースでの翻訳の潜在的な誤りを修正し、単なるX→Y翻訳マッピングに比べて優れたロバスト性を示す。我々は、スタイル化翻訳、ドキュメントレベル翻訳、マルチモーダル翻訳を含む様々な翻訳シナリオを探り、LRMの翻訳における優位性を示す実証例を提示します。また、自動ピボット翻訳といったLRMのMTにおける興味深い現象や、翻訳における過剰なローカライゼーションや推論効率といった重要な課題も特定します。結論として、LRMは翻訳システムを単なるテキスト変換器ではなく、テキストを超えた意味を推論できる多言語認知エージェントとして再定義すると考えます。このパラダイムシフトは、LRMを用いて伝統的な翻訳シナリオを超えたより広い文脈で翻訳の問題を考えること、そしてその上で何を達成できるかを考えるよう促します。
English
Recent advances in Large Reasoning Models (LRMs), particularly those
leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility
for Machine Translation (MT). This position paper argues that LRMs
substantially transformed traditional neural MT as well as LLMs-based MT
paradigms by reframing translation as a dynamic reasoning task that requires
contextual, cultural, and linguistic understanding and reasoning. We identify
three foundational shifts: 1) contextual coherence, where LRMs resolve
ambiguities and preserve discourse structure through explicit reasoning over
cross-sentence and complex context or even lack of context; 2) cultural
intentionality, enabling models to adapt outputs by inferring speaker intent,
audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can
perform self-reflection during the inference time to correct the potential
errors in translation especially extremely noisy cases, showing better
robustness compared to simply mapping X->Y translation. We explore various
scenarios in translation including stylized translation, document-level
translation and multimodal translation by showcasing empirical examples that
demonstrate the superiority of LRMs in translation. We also identify several
interesting phenomenons for LRMs for MT including auto-pivot translation as
well as the critical challenges such as over-localisation in translation and
inference efficiency. In conclusion, we think that LRMs redefine translation
systems not merely as text converters but as multilingual cognitive agents
capable of reasoning about meaning beyond the text. This paradigm shift reminds
us to think of problems in translation beyond traditional translation scenarios
in a much broader context with LRMs - what we can achieve on top of it.Summary
AI-Generated Summary