ChatPaper.aiChatPaper

Novas Tendências para Tradução Automática Moderna com Modelos de Raciocínio em Grande Escala

New Trends for Modern Machine Translation with Large Reasoning Models

March 13, 2025
Autores: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI

Resumo

Os recentes avanços em Modelos de Raciocínio em Larga Escala (LRMs), particularmente aqueles que utilizam o raciocínio em Cadeia de Pensamento (CoT), abriram novas possibilidades para a Tradução Automática (MT). Este artigo de posicionamento argumenta que os LRMs transformaram substancialmente os paradigmas tradicionais de MT neural, bem como os baseados em LLMs, ao reformular a tradução como uma tarefa dinâmica de raciocínio que requer compreensão e raciocínio contextual, cultural e linguístico. Identificamos três mudanças fundamentais: 1) coerência contextual, onde os LRMs resolvem ambiguidades e preservam a estrutura do discurso por meio de raciocínio explícito sobre contextos complexos ou mesmo a ausência de contexto; 2) intencionalidade cultural, permitindo que os modelos adaptem as saídas ao inferir a intenção do falante, as expectativas do público e as normas sociolinguísticas; 3) autorreflexão, onde os LRMs podem realizar autorreflexão durante o tempo de inferência para corrigir possíveis erros na tradução, especialmente em casos extremamente ruidosos, demonstrando maior robustez em comparação com a simples tradução mapeada X->Y. Exploramos vários cenários de tradução, incluindo tradução estilizada, tradução em nível de documento e tradução multimodal, apresentando exemplos empíricos que demonstram a superioridade dos LRMs na tradução. Também identificamos vários fenômenos interessantes dos LRMs para MT, como a tradução automática por pivô, além de desafios críticos, como a superlocalização na tradução e a eficiência de inferência. Em conclusão, acreditamos que os LRMs redefinem os sistemas de tradução não apenas como conversores de texto, mas como agentes cognitivos multilíngues capazes de raciocinar sobre o significado além do texto. Essa mudança de paradigma nos leva a pensar nos problemas de tradução além dos cenários tradicionais, em um contexto muito mais amplo com os LRMs - o que podemos alcançar com base nisso.
English
Recent advances in Large Reasoning Models (LRMs), particularly those leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility for Machine Translation (MT). This position paper argues that LRMs substantially transformed traditional neural MT as well as LLMs-based MT paradigms by reframing translation as a dynamic reasoning task that requires contextual, cultural, and linguistic understanding and reasoning. We identify three foundational shifts: 1) contextual coherence, where LRMs resolve ambiguities and preserve discourse structure through explicit reasoning over cross-sentence and complex context or even lack of context; 2) cultural intentionality, enabling models to adapt outputs by inferring speaker intent, audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can perform self-reflection during the inference time to correct the potential errors in translation especially extremely noisy cases, showing better robustness compared to simply mapping X->Y translation. We explore various scenarios in translation including stylized translation, document-level translation and multimodal translation by showcasing empirical examples that demonstrate the superiority of LRMs in translation. We also identify several interesting phenomenons for LRMs for MT including auto-pivot translation as well as the critical challenges such as over-localisation in translation and inference efficiency. In conclusion, we think that LRMs redefine translation systems not merely as text converters but as multilingual cognitive agents capable of reasoning about meaning beyond the text. This paradigm shift reminds us to think of problems in translation beyond traditional translation scenarios in a much broader context with LRMs - what we can achieve on top of it.

Summary

AI-Generated Summary

PDF232March 14, 2025