ChatPaper.aiChatPaper

SynthDetoxM: Современные LLM-модели - это набор данных для детоксикации с параллельной аннотацией на несколько примеров.

SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators

February 10, 2025
Авторы: Daniil Moskovskiy, Nikita Sushko, Sergey Pletenev, Elena Tutubalina, Alexander Panchenko
cs.AI

Аннотация

Существующие подходы к мультиязычной очистке текста осложнены недостатком параллельных мультиязычных наборов данных. В данной работе мы представляем конвейер для создания мультиязычных параллельных данных по очистке текста. Мы также представляем SynthDetoxM, вручную собранный и синтетически созданный мультиязычный набор данных по очистке текста, включающий 16 000 пар предложений высокого качества по очистке текста на немецком, французском, испанском и русском языках. Данные были получены из различных наборов данных оценки токсичности, а затем переписаны с помощью девяти современных открытых LLM в режиме few-shot. Наши эксперименты показывают, что модели, обученные на созданных синтетических наборах данных, имеют превосходное качество по сравнению с моделями, обученными на человеко-размеченном наборе данных MultiParaDetox, даже при ограниченных данных. Модели, обученные на SynthDetoxM, превосходят все оцененные LLM в режиме few-shot. Мы публикуем наш набор данных и код для содействия дальнейшим исследованиям в области мультиязычной очистки текста.
English
Existing approaches to multilingual text detoxification are hampered by the scarcity of parallel multilingual datasets. In this work, we introduce a pipeline for the generation of multilingual parallel detoxification data. We also introduce SynthDetoxM, a manually collected and synthetically generated multilingual parallel text detoxification dataset comprising 16,000 high-quality detoxification sentence pairs across German, French, Spanish and Russian. The data was sourced from different toxicity evaluation datasets and then rewritten with nine modern open-source LLMs in few-shot setting. Our experiments demonstrate that models trained on the produced synthetic datasets have superior performance to those trained on the human-annotated MultiParaDetox dataset even in data limited setting. Models trained on SynthDetoxM outperform all evaluated LLMs in few-shot setting. We release our dataset and code to help further research in multilingual text detoxification.

Summary

AI-Generated Summary

PDF902February 11, 2025