ChatPaper.aiChatPaper

高品質は全体を向上させる:慣用句へのMTQE評価による一般的な翻訳品質の改善

A Rising Tide Lifts All Boats: MTQE Rewards for Idioms Improve General Translation Quality

January 9, 2026
著者: Ishika Agarwal, Zhenlin He, Dhruva Patil, Dilek Hakkani-Tür
cs.AI

要旨

非合成的表現(例:慣用句、ことわざ、比喩)は、その意味が個々の単語のみから導き出せないため、ニューラル機械翻訳システムにとって重大な課題となっている。これらの表現は豊かな文化的意味を内包し、比喩的意味と字義的意味の両方を持つため、正確な翻訳が困難である。モデルは合成的なテキストの翻訳には比較的優れていることから、我々は機械翻訳品質推定モデルを報酬関数として用いたGRPOスタイルのファインチューニングにより、モデルが慣用句をより適切に翻訳するよう訓練する手法を検討する。中国語とヒンディー語の慣用句データセットを用いた実験により、慣用句翻訳能力が約14ポイント向上し、一般的な非慣用句的翻訳が暗黙的に約8ポイント向上し、さらに、ある言語で訓練したモデルを別の言語で評価するクロスリンガル翻訳能力が約6ポイント向上することが確認された。全体として、本研究は非合成的翻訳における課題を定量化し、より強力な異文化理解・比喩言語理解能力を持つ大規模言語モデル開発への示唆を提供するものである。
English
Non-compositional expressions (e.g., idioms, proverbs, and metaphors) pose significant challenges for neural machine translation systems because their meanings cannot be derived from individual words alone. These expressions encode rich, cultural meaning, and have both figurative and literal meanings, making accurate translation difficult. Because models are fairly good at translating compositional text, we investigate GRPO-style fine-tuning using Machine Translation Quality Estimation (MTQE) models as reward functions to train models to better translate idioms. Using Chinese and Hindi idiom datasets, we find that idiom translation abilities improve by ~14 points, general, non-idiomatic translation implicitly improves by ~8 points, and cross-lingual translation abilities (trained on one language, evaluated on another) improves by ~6 points. Overall, our work quantifies the non-compositional translation gap and offers insights for developing LLMs with stronger cross-cultural and figurative language understanding.
PDF12January 31, 2026