리터럴리즘에 갇힌 번역: 지도 학습이 대형 언어 모델의 번역체에 미치는 영향
Lost in Literalism: How Supervised Training Shapes Translationese in LLMs
March 6, 2025
저자: Yafu Li, Ronghao Zhang, Zhilin Wang, Huajian Zhang, Leyang Cui, Yongjing Yin, Tong Xiao, Yue Zhang
cs.AI
초록
대규모 언어 모델(LLM)은 기계 번역 분야에서 주목할 만한 성공을 거두며 다양한 언어에서 인상적인 성능을 보여주고 있습니다. 그러나 지나치게 직역적이고 부자연스러운 번역을 특징으로 하는 '번역체(translationese)'는 LLM 기반 번역 시스템에서 여전히 지속적인 과제로 남아 있습니다. LLM은 방대한 자연어 발화 코퍼스에 대해 사전 학습을 거쳤음에도 불구하고, 지도 미세 조정(supervised fine-tuning, SFT) 과정에서 도입된 편향으로 인해 번역체 오류를 보이고 예상치 못한 부자연스러운 번역을 생성합니다. 본 연구에서는 LLM이 생성한 번역에서 번역체의 유행을 체계적으로 평가하고, 지도 학습 과정에서 그 근원을 조사합니다. 우리는 번역체를 완화하기 위한 방법을 소개하며, 이에는 골든 레퍼런스를 다듬고 부자연스러운 학습 인스턴스를 필터링하는 방법이 포함됩니다. 실험적 평가를 통해 이러한 접근법이 번역체를 상당히 줄이고 번역의 자연스러움을 개선함을 입증하였으며, 이는 인간 평가와 자동 평가 지표를 통해 검증되었습니다. 우리의 연구 결과는 LLM 번역 출력을 최적화하기 위해 학습 과정을 고려한 조정의 필요성을 강조하며, 더 유창하고 목표 언어에 일관된 번역을 위한 길을 열어줍니다. 우리는 데이터와 코드를 https://github.com/yafuly/LLM_Translationese에서 공개합니다.
English
Large language models (LLMs) have achieved remarkable success in machine
translation, demonstrating impressive performance across diverse languages.
However, translationese, characterized by overly literal and unnatural
translations, remains a persistent challenge in LLM-based translation systems.
Despite their pre-training on vast corpora of natural utterances, LLMs exhibit
translationese errors and generate unexpected unnatural translations, stemming
from biases introduced during supervised fine-tuning (SFT). In this work, we
systematically evaluate the prevalence of translationese in LLM-generated
translations and investigate its roots during supervised training. We introduce
methods to mitigate these biases, including polishing golden references and
filtering unnatural training instances. Empirical evaluations demonstrate that
these approaches significantly reduce translationese while improving
translation naturalness, validated by human evaluations and automatic metrics.
Our findings highlight the need for training-aware adjustments to optimize LLM
translation outputs, paving the way for more fluent and
target-language-consistent translations. We release the data and code at
https://github.com/yafuly/LLM_Translationese.Summary
AI-Generated Summary