BiasEdit: Устранение смещений в стереотипных языковых моделях с помощью редактирования модели
BiasEdit: Debiasing Stereotyped Language Models via Model Editing
March 11, 2025
Авторы: Xin Xu, Wei Xu, Ningyu Zhang, Julian McAuley
cs.AI
Аннотация
Предыдущие исследования установили, что языковые модели проявляют стереотипные предубеждения. Существующие стратегии устранения предубеждений, такие как переобучение модели с использованием контрфактуальных данных, проекция представлений и подсказки, часто не позволяют эффективно устранить предубеждения или напрямую изменить предвзятые внутренние представления моделей. Для решения этих проблем мы предлагаем BiasEdit — эффективный метод редактирования моделей, который устраняет стереотипные предубеждения в языковых моделях с помощью легковесных сетей, выступающих в роли редакторов для генерации обновлений параметров. BiasEdit использует функцию потерь для устранения предубеждений, которая направляет редакторские сети на выполнение локальных правок части параметров языковой модели с целью устранения предубеждений, сохраняя при этом способности модели к языковому моделированию с помощью функции потерь на удержание. Эксперименты на наборах данных StereoSet и Crows-Pairs демонстрируют эффективность, производительность и устойчивость BiasEdit в устранении предубеждений по сравнению с базовыми методами устранения предубеждений, а также минимальное или отсутствующее влияние на общие способности языковых моделей. Кроме того, мы проводим трассировку предубеждений для анализа их наличия в различных модулях и исследуем влияние редактирования предубеждений на различные компоненты языковых моделей.
English
Previous studies have established that language models manifest stereotyped
biases. Existing debiasing strategies, such as retraining a model with
counterfactual data, representation projection, and prompting often fail to
efficiently eliminate bias or directly alter the models' biased internal
representations. To address these issues, we propose BiasEdit, an efficient
model editing method to remove stereotypical bias from language models through
lightweight networks that act as editors to generate parameter updates.
BiasEdit employs a debiasing loss guiding editor networks to conduct local
edits on partial parameters of a language model for debiasing while preserving
the language modeling abilities during editing through a retention loss.
Experiments on StereoSet and Crows-Pairs demonstrate the effectiveness,
efficiency, and robustness of BiasEdit in eliminating bias compared to
tangental debiasing baselines and little to no impact on the language models'
general capabilities. In addition, we conduct bias tracing to probe bias in
various modules and explore bias editing impacts on different components of
language models.Summary
AI-Generated Summary