ChatPaper.aiChatPaper

Новые тенденции в современном машинном переводе с использованием крупных моделей рассуждений

New Trends for Modern Machine Translation with Large Reasoning Models

March 13, 2025
Авторы: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang
cs.AI

Аннотация

Последние достижения в области больших моделей рассуждений (Large Reasoning Models, LRMs), особенно тех, которые используют цепочку рассуждений (Chain-of-Thought, CoT), открыли совершенно новые возможности для машинного перевода (Machine Translation, MT). В данной позиционной статье утверждается, что LRMs существенно трансформировали как традиционные нейронные подходы к MT, так и парадигмы MT на основе больших языковых моделей (LLMs), переосмысливая перевод как динамическую задачу рассуждения, требующую контекстуального, культурного и лингвистического понимания и анализа. Мы выделяем три фундаментальных сдвига: 1) контекстуальная согласованность, где LRMs разрешают неоднозначности и сохраняют структуру дискурса за счет явного анализа межфразового и сложного контекста или даже его отсутствия; 2) культурная интенциональность, позволяющая моделям адаптировать выводы, учитывая намерения говорящего, ожидания аудитории и социолингвистические нормы; 3) саморефлексия, где LRMs способны выполнять самоанализ во время вывода, чтобы исправлять потенциальные ошибки перевода, особенно в крайне зашумленных случаях, демонстрируя лучшую устойчивость по сравнению с простым отображением X->Y. Мы исследуем различные сценарии перевода, включая стилизованный перевод, перевод на уровне документов и мультимодальный перевод, приводя эмпирические примеры, демонстрирующие превосходство LRMs в этой области. Также мы выделяем несколько интересных феноменов, связанных с использованием LRMs для MT, таких как авто-пивотный перевод, а также ключевые вызовы, включая чрезмерную локализацию в переводе и эффективность вывода. В заключение мы считаем, что LRMs переопределяют системы перевода, превращая их не просто в преобразователи текста, а в многоязычные когнитивные агенты, способные рассуждать о значении за пределами текста. Этот сдвиг парадигмы напоминает нам о необходимости рассматривать проблемы перевода в более широком контексте с использованием LRMs — о том, чего мы можем достичь на их основе.
English
Recent advances in Large Reasoning Models (LRMs), particularly those leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility for Machine Translation (MT). This position paper argues that LRMs substantially transformed traditional neural MT as well as LLMs-based MT paradigms by reframing translation as a dynamic reasoning task that requires contextual, cultural, and linguistic understanding and reasoning. We identify three foundational shifts: 1) contextual coherence, where LRMs resolve ambiguities and preserve discourse structure through explicit reasoning over cross-sentence and complex context or even lack of context; 2) cultural intentionality, enabling models to adapt outputs by inferring speaker intent, audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can perform self-reflection during the inference time to correct the potential errors in translation especially extremely noisy cases, showing better robustness compared to simply mapping X->Y translation. We explore various scenarios in translation including stylized translation, document-level translation and multimodal translation by showcasing empirical examples that demonstrate the superiority of LRMs in translation. We also identify several interesting phenomenons for LRMs for MT including auto-pivot translation as well as the critical challenges such as over-localisation in translation and inference efficiency. In conclusion, we think that LRMs redefine translation systems not merely as text converters but as multilingual cognitive agents capable of reasoning about meaning beyond the text. This paradigm shift reminds us to think of problems in translation beyond traditional translation scenarios in a much broader context with LRMs - what we can achieve on top of it.

Summary

AI-Generated Summary

PDF232March 14, 2025