ChatPaper.aiChatPaper

DITING: Een Multi-Agent Evaluatiekader voor het Benchmarken van Webromanvertalingen

DITING: A Multi-Agent Evaluation Framework for Benchmarking Web Novel Translation

October 10, 2025
Auteurs: Enze Zhang, Jiaying Wang, Mengxi Xiao, Jifei Liu, Ziyan Kuang, Rui Dong, Eric Dong, Sophia Ananiadou, Min Peng, Qianqian Xie
cs.AI

Samenvatting

Grote taalmodellen (LLMs) hebben machinevertaling (MT) aanzienlijk vooruitgeholpen, maar hun effectiviteit bij het vertalen van webromans blijft onduidelijk. Bestaande benchmarks vertrouwen op oppervlakkige metrieken die de kenmerkende eigenschappen van dit genre niet vastleggen. Om deze tekortkomingen aan te pakken, introduceren we DITING, het eerste uitgebreide evaluatieraamwerk voor het vertalen van webromans, dat narratieve en culturele trouw beoordeelt over zes dimensies: idioomvertaling, lexicale ambiguïteit, terminologielokalisatie, tijdsconsistentie, zero-pronomenresolutie en culturele veiligheid, ondersteund door meer dan 18K expert-geannoteerde Chinees-Engelse zinsparen. We stellen verder AgentEval voor, een redeneringsgestuurd multi-agent evaluatieraamwerk dat expertberaad simuleert om vertaalkwaliteit te beoordelen die verder gaat dan lexicale overlap, en dat de hoogste correlatie met menselijke oordelen bereikt onder zeven geteste automatische metrieken. Om metrische vergelijking mogelijk te maken, ontwikkelen we MetricAlign, een meta-evaluatiedataset van 300 zinsparen geannoteerd met foutlabels en scalaire kwaliteitsscores. Een uitgebreide evaluatie van veertien open, gesloten en commerciële modellen onthult dat in China getrainde LLMs grotere buitenlandse tegenhangers overtreffen, en dat DeepSeek-V3 de meest trouwe en stilistisch coherente vertalingen levert. Ons werk vestigt een nieuw paradigma voor het verkennen van LLM-gebaseerde webromanvertaling en biedt publieke bronnen om toekomstig onderzoek te bevorderen.
English
Large language models (LLMs) have substantially advanced machine translation (MT), yet their effectiveness in translating web novels remains unclear. Existing benchmarks rely on surface-level metrics that fail to capture the distinctive traits of this genre. To address these gaps, we introduce DITING, the first comprehensive evaluation framework for web novel translation, assessing narrative and cultural fidelity across six dimensions: idiom translation, lexical ambiguity, terminology localization, tense consistency, zero-pronoun resolution, and cultural safety, supported by over 18K expert-annotated Chinese-English sentence pairs. We further propose AgentEval, a reasoning-driven multi-agent evaluation framework that simulates expert deliberation to assess translation quality beyond lexical overlap, achieving the highest correlation with human judgments among seven tested automatic metrics. To enable metric comparison, we develop MetricAlign, a meta-evaluation dataset of 300 sentence pairs annotated with error labels and scalar quality scores. Comprehensive evaluation of fourteen open, closed, and commercial models reveals that Chinese-trained LLMs surpass larger foreign counterparts, and that DeepSeek-V3 delivers the most faithful and stylistically coherent translations. Our work establishes a new paradigm for exploring LLM-based web novel translation and provides public resources to advance future research.
PDF942October 15, 2025