ChatPaper.aiChatPaper

BiasEdit: Устранение смещений в стереотипных языковых моделях с помощью редактирования модели

BiasEdit: Debiasing Stereotyped Language Models via Model Editing

March 11, 2025
Авторы: Xin Xu, Wei Xu, Ningyu Zhang, Julian McAuley
cs.AI

Аннотация

Предыдущие исследования установили, что языковые модели проявляют стереотипные предубеждения. Существующие стратегии устранения предубеждений, такие как переобучение модели с использованием контрфактуальных данных, проекция представлений и подсказки, часто не позволяют эффективно устранить предубеждения или напрямую изменить предвзятые внутренние представления моделей. Для решения этих проблем мы предлагаем BiasEdit — эффективный метод редактирования моделей, который устраняет стереотипные предубеждения в языковых моделях с помощью легковесных сетей, выступающих в роли редакторов для генерации обновлений параметров. BiasEdit использует функцию потерь для устранения предубеждений, которая направляет редакторские сети на выполнение локальных правок части параметров языковой модели с целью устранения предубеждений, сохраняя при этом способности модели к языковому моделированию с помощью функции потерь на удержание. Эксперименты на наборах данных StereoSet и Crows-Pairs демонстрируют эффективность, производительность и устойчивость BiasEdit в устранении предубеждений по сравнению с базовыми методами устранения предубеждений, а также минимальное или отсутствующее влияние на общие способности языковых моделей. Кроме того, мы проводим трассировку предубеждений для анализа их наличия в различных модулях и исследуем влияние редактирования предубеждений на различные компоненты языковых моделей.
English
Previous studies have established that language models manifest stereotyped biases. Existing debiasing strategies, such as retraining a model with counterfactual data, representation projection, and prompting often fail to efficiently eliminate bias or directly alter the models' biased internal representations. To address these issues, we propose BiasEdit, an efficient model editing method to remove stereotypical bias from language models through lightweight networks that act as editors to generate parameter updates. BiasEdit employs a debiasing loss guiding editor networks to conduct local edits on partial parameters of a language model for debiasing while preserving the language modeling abilities during editing through a retention loss. Experiments on StereoSet and Crows-Pairs demonstrate the effectiveness, efficiency, and robustness of BiasEdit in eliminating bias compared to tangental debiasing baselines and little to no impact on the language models' general capabilities. In addition, we conduct bias tracing to probe bias in various modules and explore bias editing impacts on different components of language models.

Summary

AI-Generated Summary

PDF62March 12, 2025