ChatPaper.aiChatPaper

SynthDetoxM:現代のLLMは、少数ショットの並列解毒データ注釈者です。

SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators

February 10, 2025
著者: Daniil Moskovskiy, Nikita Sushko, Sergey Pletenev, Elena Tutubalina, Alexander Panchenko
cs.AI

要旨

多言語テキストのデトックス処理に関する既存のアプローチは、並列の多言語データセットの希少性によって妨げられています。本研究では、多言語並列デトックスデータの生成のためのパイプラインを紹介します。また、SynthDetoxMという、ドイツ語、フランス語、スペイン語、ロシア語の16,000の高品質なデトックス文ペアからなる手動収集および合成生成された多言語並列テキストデトックスデータセットを紹介します。このデータは、異なる有害性評価データセットから入手し、その後、9つの現代のオープンソースLLMで少数ショット設定で書き直されました。私たちの実験は、生成された合成データセットでトレーニングされたモデルが、データが限られている状況でも、人間によって注釈が付けられたMultiParaDetoxデータセットでトレーニングされたモデルよりも優れたパフォーマンスを示すことを示しています。SynthDetoxMでトレーニングされたモデルは、少数ショット設定で評価されたすべてのLLMを上回ります。私たちは、多言語テキストのデトックス処理に関するさらなる研究を支援するために、当該データセットとコードを公開します。
English
Existing approaches to multilingual text detoxification are hampered by the scarcity of parallel multilingual datasets. In this work, we introduce a pipeline for the generation of multilingual parallel detoxification data. We also introduce SynthDetoxM, a manually collected and synthetically generated multilingual parallel text detoxification dataset comprising 16,000 high-quality detoxification sentence pairs across German, French, Spanish and Russian. The data was sourced from different toxicity evaluation datasets and then rewritten with nine modern open-source LLMs in few-shot setting. Our experiments demonstrate that models trained on the produced synthetic datasets have superior performance to those trained on the human-annotated MultiParaDetox dataset even in data limited setting. Models trained on SynthDetoxM outperform all evaluated LLMs in few-shot setting. We release our dataset and code to help further research in multilingual text detoxification.

Summary

AI-Generated Summary

PDF902February 11, 2025