ChatPaper.aiChatPaper

상승하는 조류는 모든 배를 띄운다: 관용구에 대한 MTQE 보상이 일반 번역 품질을 향상시키다

A Rising Tide Lifts All Boats: MTQE Rewards for Idioms Improve General Translation Quality

January 9, 2026
저자: Ishika Agarwal, Zhenlin He, Dhruva Patil, Dilek Hakkani-Tür
cs.AI

초록

비조합적 표현(관용구, 속담, 은유 등)은 그 의미가 개별 단어만으로 도출될 수 없어 신경망 기계 번역 시스템에 상당한 과제를 제기합니다. 이러한 표현은 풍부한 문화적 의미를 내포하고 있으며 비유적 의미와 문자적 의미를 모두 지니고 있어 정확한 번역이 어렵습니다. 모델이 조합적 텍스트 번역에는 상당히 능하므로, 우리는 관용구 번역 능력을 향상시키기 위해 기계 번역 품질 추정(MTQE) 모델을 보상 함수로 활용한 GRPO 방식의 미세 조정을 연구합니다. 중국어와 힌디어 관용구 데이터셋을 사용한 결과, 관용구 번역 능력은 약 14점, 일반 비관용구 번역은 약 8점, 교차 언어 번역 능력(한 언어로 훈련 후 다른 언어로 평가)은 약 6점 각각 향상되었습니다. 전반적으로 본 연구는 비조합적 번역의 격차를 정량화하고, 더 강력한 문화 간 및 비유적 언어 이해 능력을 갖춘 대규모 언어 모델 개발을 위한 통찰을 제공합니다.
English
Non-compositional expressions (e.g., idioms, proverbs, and metaphors) pose significant challenges for neural machine translation systems because their meanings cannot be derived from individual words alone. These expressions encode rich, cultural meaning, and have both figurative and literal meanings, making accurate translation difficult. Because models are fairly good at translating compositional text, we investigate GRPO-style fine-tuning using Machine Translation Quality Estimation (MTQE) models as reward functions to train models to better translate idioms. Using Chinese and Hindi idiom datasets, we find that idiom translation abilities improve by ~14 points, general, non-idiomatic translation implicitly improves by ~8 points, and cross-lingual translation abilities (trained on one language, evaluated on another) improves by ~6 points. Overall, our work quantifies the non-compositional translation gap and offers insights for developing LLMs with stronger cross-cultural and figurative language understanding.
PDF12January 31, 2026