ChatPaper.aiChatPaper

LLM-redenering voor machinaal vertalen: Generatie van synthetische gegevens via denktokens

LLM Reasoning for Machine Translation: Synthetic Data Generation over Thinking Tokens

October 13, 2025
Auteurs: Armel Zebaze, Rachel Bawden, Benoît Sagot
cs.AI

Samenvatting

Grote redeneermodellen (LRMs) hebben nieuwe mogelijkheden gecreëerd op het gebied van probleemoplossing, door het ontwikkelen van een natuurlijke taaldenkproces voordat een vraag wordt beantwoord. Hoewel hun capaciteiten goed bekend zijn bij wiskundige en programmeertaken, blijft hun impact op de taak van machinaal vertalen (MT) onderbelicht. In dit werk onderzoeken we de voordelen van het genereren van tussenliggende tokens bij het uitvoeren van MT over meerdere taalparen met verschillende niveaus van beschikbare bronnen en in verschillende opstellingen. We ontdekken dat "denktokens" LRMs niet helpen om beter te presteren bij MT. Dit resultaat geldt ook voor modellen die zijn afgestemd om eerst te redeneren voordat ze vertalen, met behulp van een gedistilleerde keten van gedachten (CoT) die is geïnspireerd op de praktijken van menselijke vertalers. Specifiek presteert het afstemmen van een model met synthetische CoT-verklaringen die stap voor stap uitleggen hoe te vertalen niet beter dan standaard input-output afstemming. Het construeren van de tussenliggende tokens door de uitkomsten van modulaire vertaalspecifieke promptstrategieën te combineren, leidt echter wel tot verbeteringen. Onze bevindingen benadrukken dat de bijdrage van tussenliggende tokens tijdens het afstemmen sterk afhangt van de aanwezigheid van vertaalpogingen daarin. In bredere zin suggereren onze resultaten dat het gebruik van een leraar om doelvertalingen te verfijnen of parallelle corpora uit te breiden meer impact heeft dan het destilleren van hun CoT-verklaringen in "denkende" MT-modellen.
English
Large reasoning models (LRMs) have led to new possibilities in terms of problem-solving, through the devising of a natural language thought process prior to answering a query. While their capabilities are well known across mathematics and coding tasks, their impact on the task of machine translation (MT) remains underexplored. In this work, we explore the benefits of the generation of intermediate tokens when performing MT across multiple language pairs of different levels of resourcedness and multiple setups. We find that "thinking tokens" do not help LRMs better perform MT. This result generalizes to models fine-tuned to reason before translating using distilled chain of thought (CoT) inspired by human translators' practices. Specifically, fine-tuning a model with synthetic CoT explanations detailing how to translate step-by-step does not outperform standard input-output fine-tuning. However, constructing the intermediate tokens by combining the outputs of modular translation-specific prompting strategies results in improvements. Our findings underscore that the contribution of intermediate tokens during fine-tuning highly depends on the presence of translation attempts within them. More broadly, our results suggest that using a teacher to refine target translations or to expand parallel corpora is more impactful than distilling their CoT explanations into "thinking" MT models.
PDF42October 15, 2025