ChatPaper.aiChatPaper

Escalado en Tiempo de Prueba de Modelos de Razonamiento para Traducción Automática

Test-Time Scaling of Reasoning Models for Machine Translation

October 7, 2025
Autores: Zihao Li, Shaoxiong Ji, Jörg Tiedemann
cs.AI

Resumen

El escalado en tiempo de prueba (TTS, por sus siglas en inglés) ha mejorado el rendimiento de los modelos de razonamiento (RMs) en diversas tareas, como matemáticas y programación, aunque su eficacia en la traducción automática (MT) sigue siendo poco explorada. Este artículo investiga si el aumento del cómputo en tiempo de inferencia mejora la calidad de la traducción. Evaluamos 12 RMs en un conjunto diverso de benchmarks de MT que abarcan múltiples dominios, examinando tres escenarios: traducción directa, extrapolación con razonamiento forzado y post-edición. Nuestros hallazgos muestran que, para RMs de propósito general, el TTS ofrece beneficios limitados e inconsistentes en la traducción directa, con un rendimiento que rápidamente se estanca. Sin embargo, la efectividad del TTS se desbloquea mediante el ajuste fino específico del dominio, que alinea el proceso de razonamiento del modelo con los requisitos de la tarea, lo que conduce a mejoras consistentes hasta alcanzar una profundidad de razonamiento óptima y autodeterminada. También encontramos que forzar a un modelo a razonar más allá de su punto de parada natural degrada consistentemente la calidad de la traducción. Por el contrario, el TTS resulta altamente efectivo en un contexto de post-edición, convirtiendo de manera confiable la autocorrección en un proceso beneficioso. Estos resultados indican que el valor del cómputo en tiempo de inferencia en MT no radica en mejorar la traducción de un solo paso con modelos generales, sino en aplicaciones específicas como flujos de trabajo de autocorrección de múltiples pasos y en combinación con modelos especializados en tareas.
English
Test-time scaling (TTS) has enhanced the performance of Reasoning Models (RMs) on various tasks such as math and coding, yet its efficacy in machine translation (MT) remains underexplored. This paper investigates whether increased inference-time computation improves translation quality. We evaluate 12 RMs across a diverse suite of MT benchmarks spanning multiple domains, examining three scenarios: direct translation, forced-reasoning extrapolation, and post-editing. Our findings show that for general-purpose RMs, TTS provides limited and inconsistent benefits for direct translation, with performance quickly plateauing. However, the effectiveness of TTS is unlocked by domain-specific fine-tuning, which aligns a model's reasoning process with task requirements, leading to consistent improvements up to an optimal, self-determined reasoning depth. We also find that forcing a model to reason beyond its natural stopping point consistently degrades translation quality. In contrast, TTS proves highly effective in a post-editing context, reliably turning self-correction into a beneficial process. These results indicate that the value of inference-time computation in MT lies not in enhancing single-pass translation with general models, but in targeted applications like multi-step, self-correction workflows and in conjunction with task-specialized models.
PDF02October 21, 2025