Una Marea Che Solleva Tutte le Barche: I Premi MTQE per i Modi di Dire Migliorano la Qualità Generale della Traduzione
A Rising Tide Lifts All Boats: MTQE Rewards for Idioms Improve General Translation Quality
January 9, 2026
Autori: Ishika Agarwal, Zhenlin He, Dhruva Patil, Dilek Hakkani-Tür
cs.AI
Abstract
Le espressioni non composizionali (ad esempio, idiomi, proverbi e metafore) pongono sfide significative per i sistemi di traduzione automatica neurale poiché il loro significato non può essere derivato dalla semplice somma delle parole componenti. Queste espressioni codificano significati culturali ricchi e possiedono sia accezioni figurative che letterali, rendendo difficile una traduzione accurata. Poiché i modelli sono già abbastanza abili nel tradurre testo composizionale, abbiamo investigato un fine-tuning in stile GRPO utilizzando modelli di Quality Estimation per la traduzione automatica (MTQE) come funzioni di reward per addestrare i modelli a tradurre meglio gli idiomi. Utilizzando dataset di idiomi cinesi e hindi, abbiamo riscontrato un miglioramento di circa 14 punti nelle capacità di traduzione idiomatica, un miglioramento implicito di circa 8 punti nella traduzione generale non idiomatica, e un miglioramento di circa 6 punti nelle abilità di traduzione cross-lingue (addestrato su una lingua, valutato su un'altra). Nel complesso, il nostro lavoro quantifica il divario nella traduzione non composizionale e offre spunti per sviluppare LLM con una comprensione più solida del linguaggio figurato e cross-culturale.
English
Non-compositional expressions (e.g., idioms, proverbs, and metaphors) pose significant challenges for neural machine translation systems because their meanings cannot be derived from individual words alone. These expressions encode rich, cultural meaning, and have both figurative and literal meanings, making accurate translation difficult. Because models are fairly good at translating compositional text, we investigate GRPO-style fine-tuning using Machine Translation Quality Estimation (MTQE) models as reward functions to train models to better translate idioms. Using Chinese and Hindi idiom datasets, we find that idiom translation abilities improve by ~14 points, general, non-idiomatic translation implicitly improves by ~8 points, and cross-lingual translation abilities (trained on one language, evaluated on another) improves by ~6 points. Overall, our work quantifies the non-compositional translation gap and offers insights for developing LLMs with stronger cross-cultural and figurative language understanding.