ChatPaper.aiChatPaper

Токсичность общего доступа: курирование открытых предварительных данных для обучения.

Toxicity of the Commons: Curating Open-Source Pre-Training Data

October 29, 2024
Авторы: Catherine Arnett, Eliot Jones, Ivan P. Yamshchikov, Pierre-Carl Langlais
cs.AI

Аннотация

Открытые модели больших языковых моделей становятся все более доступными и популярными среди исследователей и практиков. В то время как значительные успехи были достигнуты в отношении моделей с открытым весом, практика использования открытых обучающих данных пока не была принята ведущими создателями моделей с открытым весом. В то же время исследователи работают над обеспечением безопасности языковых моделей. Мы предлагаем конвейер кураторства данных для снижения вредных результатов, получаемых моделями, обученными на общедоступных данных. Существуют уникальные вызовы при работе с общедоступными данными, поскольку эти источники отличаются от веб-текста как по форме, так и по содержанию. Многие источники представляют собой исторические документы и являются результатом оптического распознавания символов (OCR). Следовательно, текущие передовые подходы к фильтрации токсичности часто являются невозможными или неуместными для моделей с открытыми данными. В данной статье мы представляем новый полностью открытый конвейер для фильтрации токсичности открытых данных. Наши вклады тройные. Мы создаем специальный обучающий набор данных, ToxicCommons, который состоит из текстов, классифицированных по пяти различным измерениям (основанным на расовой/этнической принадлежности, половой принадлежности, религиозной принадлежности, дискриминации на основе способностей и насилия). Мы используем этот набор данных для обучения специального классификатора, Celadon, который может быть использован для обнаружения токсичного контента в открытых данных более эффективно и в большем масштабе. Наконец, мы описываем сбалансированный подход к фильтрации контента, который оптимизирует фильтрацию безопасности с учетом доступных для обучения отфильтрованных данных.
English
Open-source large language models are becoming increasingly available and popular among researchers and practitioners. While significant progress has been made on open-weight models, open training data is a practice yet to be adopted by the leading open-weight models creators. At the same time, there researchers are working to make language models safer. We propose a data curation pipeline to reduce harmful outputs by models trained on public domain data. There are unique challenges to working with public domain data, as these sources differ from web text in both form and content. Many sources are historical documents and are the result of Optical Character Recognition (OCR). Consequently, current state-of-the-art approaches to toxicity filtering are often infeasible or inappropriate for open data models. In this paper, we introduce a new fully open-source pipeline for open-data toxicity filtering. Our contributions are threefold. We create a custom training dataset, ToxicCommons, which is composed of texts which have been classified across five different dimensions (racial/origin-based, gender/sex-based, religious, ability-based discrimination, and violence). We use this dataset to train a custom classifier, Celadon, that can be used to detect toxic content in open data more efficiently at a larger scale. Finally, we describe the balanced approach to content filtration that optimizes safety filtering with respect to the filtered data available for training.

Summary

AI-Generated Summary

PDF102November 16, 2024