Токсичность общего доступа: курирование открытых предварительных данных для обучения.
Toxicity of the Commons: Curating Open-Source Pre-Training Data
October 29, 2024
Авторы: Catherine Arnett, Eliot Jones, Ivan P. Yamshchikov, Pierre-Carl Langlais
cs.AI
Аннотация
Открытые модели больших языковых моделей становятся все более доступными и популярными среди исследователей и практиков. В то время как значительные успехи были достигнуты в отношении моделей с открытым весом, практика использования открытых обучающих данных пока не была принята ведущими создателями моделей с открытым весом. В то же время исследователи работают над обеспечением безопасности языковых моделей. Мы предлагаем конвейер кураторства данных для снижения вредных результатов, получаемых моделями, обученными на общедоступных данных. Существуют уникальные вызовы при работе с общедоступными данными, поскольку эти источники отличаются от веб-текста как по форме, так и по содержанию. Многие источники представляют собой исторические документы и являются результатом оптического распознавания символов (OCR). Следовательно, текущие передовые подходы к фильтрации токсичности часто являются невозможными или неуместными для моделей с открытыми данными. В данной статье мы представляем новый полностью открытый конвейер для фильтрации токсичности открытых данных. Наши вклады тройные. Мы создаем специальный обучающий набор данных, ToxicCommons, который состоит из текстов, классифицированных по пяти различным измерениям (основанным на расовой/этнической принадлежности, половой принадлежности, религиозной принадлежности, дискриминации на основе способностей и насилия). Мы используем этот набор данных для обучения специального классификатора, Celadon, который может быть использован для обнаружения токсичного контента в открытых данных более эффективно и в большем масштабе. Наконец, мы описываем сбалансированный подход к фильтрации контента, который оптимизирует фильтрацию безопасности с учетом доступных для обучения отфильтрованных данных.
English
Open-source large language models are becoming increasingly available and
popular among researchers and practitioners. While significant progress has
been made on open-weight models, open training data is a practice yet to be
adopted by the leading open-weight models creators. At the same time, there
researchers are working to make language models safer. We propose a data
curation pipeline to reduce harmful outputs by models trained on public domain
data. There are unique challenges to working with public domain data, as these
sources differ from web text in both form and content. Many sources are
historical documents and are the result of Optical Character Recognition (OCR).
Consequently, current state-of-the-art approaches to toxicity filtering are
often infeasible or inappropriate for open data models. In this paper, we
introduce a new fully open-source pipeline for open-data toxicity filtering.
Our contributions are threefold. We create a custom training dataset,
ToxicCommons, which is composed of texts which have been classified across five
different dimensions (racial/origin-based, gender/sex-based, religious,
ability-based discrimination, and violence). We use this dataset to train a
custom classifier, Celadon, that can be used to detect toxic content in open
data more efficiently at a larger scale. Finally, we describe the balanced
approach to content filtration that optimizes safety filtering with respect to
the filtered data available for training.Summary
AI-Generated Summary