Een vloedgolf tilt alle boten: MTQE-beloningen voor idiomen verbeteren de algemene vertaalkwaliteit
A Rising Tide Lifts All Boats: MTQE Rewards for Idioms Improve General Translation Quality
January 9, 2026
Auteurs: Ishika Agarwal, Zhenlin He, Dhruva Patil, Dilek Hakkani-Tür
cs.AI
Samenvatting
Niet-compositionele uitdrukkingen (zoals idioom, spreekwoorden en metaforen) vormen aanzienlijke uitdagingen voor neurale machinevertalingssystemen omdat hun betekenis niet kan worden afgeleid uit afzonderlijke woorden. Deze uitdrukkingen bevatten een rijke, culturele lading en hebben zowel figuurlijke als letterlijke betekenissen, wat een accurate vertaling bemoeilijkt. Aangezien modellen redelijk goed zijn in het vertalen van compositionele tekst, onderzoeken we GRPO-stijl fine-tuning met Machine Translation Quality Estimation (MTQE)-modellen als beloningsfuncties om modellen te trainen idioom beter te vertalen. Met behulp van Chinese en Hindi-idioomdatasets constateren we dat de idioomvertaalvaardigheid met ~14 punten verbetert, de algemene, niet-idiomatische vertaling impliciet met ~8 punten verbetert, en de cross-linguale vertaalvaardigheid (getraind op één taal, geëvalueerd op een andere) met ~6 punten verbetert. Kortom, ons werk kwantificeert de niet-compositionele vertaalkloof en biedt inzichten voor de ontwikkeling van LLM's met een beter intercultureel en figuurlijk taalbegrip.
English
Non-compositional expressions (e.g., idioms, proverbs, and metaphors) pose significant challenges for neural machine translation systems because their meanings cannot be derived from individual words alone. These expressions encode rich, cultural meaning, and have both figurative and literal meanings, making accurate translation difficult. Because models are fairly good at translating compositional text, we investigate GRPO-style fine-tuning using Machine Translation Quality Estimation (MTQE) models as reward functions to train models to better translate idioms. Using Chinese and Hindi idiom datasets, we find that idiom translation abilities improve by ~14 points, general, non-idiomatic translation implicitly improves by ~8 points, and cross-lingual translation abilities (trained on one language, evaluated on another) improves by ~6 points. Overall, our work quantifies the non-compositional translation gap and offers insights for developing LLMs with stronger cross-cultural and figurative language understanding.