Novas Tendências para Tradução Automática Moderna com Modelos de Raciocínio em Grande Escala
New Trends for Modern Machine Translation with Large Reasoning Models
March 13, 2025
Autores: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI
Resumo
Os recentes avanços em Modelos de Raciocínio em Larga Escala (LRMs), particularmente aqueles que utilizam o raciocínio em Cadeia de Pensamento (CoT), abriram novas possibilidades para a Tradução Automática (MT). Este artigo de posicionamento argumenta que os LRMs transformaram substancialmente os paradigmas tradicionais de MT neural, bem como os baseados em LLMs, ao reformular a tradução como uma tarefa dinâmica de raciocínio que requer compreensão e raciocínio contextual, cultural e linguístico. Identificamos três mudanças fundamentais: 1) coerência contextual, onde os LRMs resolvem ambiguidades e preservam a estrutura do discurso por meio de raciocínio explícito sobre contextos complexos ou mesmo a ausência de contexto; 2) intencionalidade cultural, permitindo que os modelos adaptem as saídas ao inferir a intenção do falante, as expectativas do público e as normas sociolinguísticas; 3) autorreflexão, onde os LRMs podem realizar autorreflexão durante o tempo de inferência para corrigir possíveis erros na tradução, especialmente em casos extremamente ruidosos, demonstrando maior robustez em comparação com a simples tradução mapeada X->Y. Exploramos vários cenários de tradução, incluindo tradução estilizada, tradução em nível de documento e tradução multimodal, apresentando exemplos empíricos que demonstram a superioridade dos LRMs na tradução. Também identificamos vários fenômenos interessantes dos LRMs para MT, como a tradução automática por pivô, além de desafios críticos, como a superlocalização na tradução e a eficiência de inferência. Em conclusão, acreditamos que os LRMs redefinem os sistemas de tradução não apenas como conversores de texto, mas como agentes cognitivos multilíngues capazes de raciocinar sobre o significado além do texto. Essa mudança de paradigma nos leva a pensar nos problemas de tradução além dos cenários tradicionais, em um contexto muito mais amplo com os LRMs - o que podemos alcançar com base nisso.
English
Recent advances in Large Reasoning Models (LRMs), particularly those
leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility
for Machine Translation (MT). This position paper argues that LRMs
substantially transformed traditional neural MT as well as LLMs-based MT
paradigms by reframing translation as a dynamic reasoning task that requires
contextual, cultural, and linguistic understanding and reasoning. We identify
three foundational shifts: 1) contextual coherence, where LRMs resolve
ambiguities and preserve discourse structure through explicit reasoning over
cross-sentence and complex context or even lack of context; 2) cultural
intentionality, enabling models to adapt outputs by inferring speaker intent,
audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can
perform self-reflection during the inference time to correct the potential
errors in translation especially extremely noisy cases, showing better
robustness compared to simply mapping X->Y translation. We explore various
scenarios in translation including stylized translation, document-level
translation and multimodal translation by showcasing empirical examples that
demonstrate the superiority of LRMs in translation. We also identify several
interesting phenomenons for LRMs for MT including auto-pivot translation as
well as the critical challenges such as over-localisation in translation and
inference efficiency. In conclusion, we think that LRMs redefine translation
systems not merely as text converters but as multilingual cognitive agents
capable of reasoning about meaning beyond the text. This paradigm shift reminds
us to think of problems in translation beyond traditional translation scenarios
in a much broader context with LRMs - what we can achieve on top of it.Summary
AI-Generated Summary