Uma Maré Alta Levanta Todos os Barcos: Recompensas do MTQE para Expressões Idiomáticas Melhoram a Qualidade Geral da Tradução
A Rising Tide Lifts All Boats: MTQE Rewards for Idioms Improve General Translation Quality
January 9, 2026
Autores: Ishika Agarwal, Zhenlin He, Dhruva Patil, Dilek Hakkani-Tür
cs.AI
Resumo
As expressões não composicionais (como idiomatismos, provérbios e metáforas) representam desafios significativos para os sistemas de tradução automática neural, pois seus significados não podem ser derivados apenas das palavras individuais. Essas expressões codificam significados culturais ricos e possuem sentidos tanto figurativos quanto literais, dificultando a tradução precisa. Como os modelos são relativamente bons em traduzir texto composicional, investigamos o fine-tuning no estilo GRPO utilizando modelos de Estimativa de Qualidade em Tradução Automática (MTQE) como funções de recompensa para treinar modelos a traduzir melhor idiomatismos. Utilizando conjuntos de dados de expressões idiomáticas em chinês e hindi, constatamos que as habilidades de tradução idiomática melhoram em aproximadamente 14 pontos, a tradução geral não idiomática melhora implicitamente em cerca de 8 pontos, e as habilidades de tradução cross-lingual (treinada em um idioma, avaliada em outro) melhoram em aproximadamente 6 pontos. No geral, nosso trabalho quantifica a lacuna de tradução não composicional e oferece insights para desenvolver LLMs com maior compreensão intercultural e de linguagem figurativa.
English
Non-compositional expressions (e.g., idioms, proverbs, and metaphors) pose significant challenges for neural machine translation systems because their meanings cannot be derived from individual words alone. These expressions encode rich, cultural meaning, and have both figurative and literal meanings, making accurate translation difficult. Because models are fairly good at translating compositional text, we investigate GRPO-style fine-tuning using Machine Translation Quality Estimation (MTQE) models as reward functions to train models to better translate idioms. Using Chinese and Hindi idiom datasets, we find that idiom translation abilities improve by ~14 points, general, non-idiomatic translation implicitly improves by ~8 points, and cross-lingual translation abilities (trained on one language, evaluated on another) improves by ~6 points. Overall, our work quantifies the non-compositional translation gap and offers insights for developing LLMs with stronger cross-cultural and figurative language understanding.