ChatPaper.aiChatPaper

Scalatura al Tempo di Test dei Modelli di Ragionamento per la Traduzione Automatica

Test-Time Scaling of Reasoning Models for Machine Translation

October 7, 2025
Autori: Zihao Li, Shaoxiong Ji, Jörg Tiedemann
cs.AI

Abstract

Il ridimensionamento al momento del test (Test-time Scaling, TTS) ha migliorato le prestazioni dei Modelli di Ragionamento (Reasoning Models, RMs) in vari compiti come la matematica e la codifica, ma la sua efficacia nella traduzione automatica (Machine Translation, MT) rimane poco esplorata. Questo articolo indaga se un aumento del calcolo al momento dell'inferenza migliori la qualità della traduzione. Valutiamo 12 RMs su una serie diversificata di benchmark di MT che coprono più domini, esaminando tre scenari: traduzione diretta, estrapolazione con ragionamento forzato e post-editing. I nostri risultati mostrano che, per RMs generici, il TTS offre benefici limitati e incoerenti per la traduzione diretta, con prestazioni che raggiungono rapidamente un plateau. Tuttavia, l'efficacia del TTS viene sbloccata dalla messa a punto specifica per dominio, che allinea il processo di ragionamento del modello con i requisiti del compito, portando a miglioramenti consistenti fino a una profondità di ragionamento ottimale e autodeterminata. Troviamo anche che forzare un modello a ragionare oltre il suo punto di arresto naturale degrada costantemente la qualità della traduzione. Al contrario, il TTS si dimostra altamente efficace in un contesto di post-editing, trasformando in modo affidabile l'autocorrezione in un processo vantaggioso. Questi risultati indicano che il valore del calcolo al momento dell'inferenza nella MT non risiede nel migliorare la traduzione in un singolo passaggio con modelli generici, ma in applicazioni mirate come flussi di lavoro multi-step di autocorrezione e in combinazione con modelli specializzati per compiti specifici.
English
Test-time scaling (TTS) has enhanced the performance of Reasoning Models (RMs) on various tasks such as math and coding, yet its efficacy in machine translation (MT) remains underexplored. This paper investigates whether increased inference-time computation improves translation quality. We evaluate 12 RMs across a diverse suite of MT benchmarks spanning multiple domains, examining three scenarios: direct translation, forced-reasoning extrapolation, and post-editing. Our findings show that for general-purpose RMs, TTS provides limited and inconsistent benefits for direct translation, with performance quickly plateauing. However, the effectiveness of TTS is unlocked by domain-specific fine-tuning, which aligns a model's reasoning process with task requirements, leading to consistent improvements up to an optimal, self-determined reasoning depth. We also find that forcing a model to reason beyond its natural stopping point consistently degrades translation quality. In contrast, TTS proves highly effective in a post-editing context, reliably turning self-correction into a beneficial process. These results indicate that the value of inference-time computation in MT lies not in enhancing single-pass translation with general models, but in targeted applications like multi-step, self-correction workflows and in conjunction with task-specialized models.
PDF02October 21, 2025