BiasEdit: Entfernung von Vorurteilen in stereotypen Sprachmodellen durch Modellbearbeitung
BiasEdit: Debiasing Stereotyped Language Models via Model Editing
March 11, 2025
Autoren: Xin Xu, Wei Xu, Ningyu Zhang, Julian McAuley
cs.AI
Zusammenfassung
Frühere Studien haben gezeigt, dass Sprachmodelle stereotypisierte Vorurteile aufweisen. Bestehende Strategien zur Entfernung von Vorurteilen, wie das erneute Trainieren eines Modells mit kontrafaktischen Daten, Repräsentationsprojektion und Prompting, scheitern oft daran, Vorurteile effizient zu beseitigen oder die voreingenommenen internen Repräsentationen der Modelle direkt zu verändern. Um diese Probleme zu lösen, schlagen wir BiasEdit vor, eine effiziente Methode zur Modellbearbeitung, die stereotypisierte Vorurteile aus Sprachmodellen entfernt, indem sie leichtgewichtige Netzwerke als Editoren verwendet, um Parameteraktualisierungen zu generieren. BiasEdit nutzt einen Entbiasungsverlust, der die Editornetzwerke anleitet, lokale Bearbeitungen an Teilparametern eines Sprachmodells vorzunehmen, um Vorurteile zu entfernen, während die Sprachmodellierungsfähigkeiten während der Bearbeitung durch einen Beibehaltungsverlust erhalten bleiben. Experimente mit StereoSet und Crows-Pairs demonstrieren die Wirksamkeit, Effizienz und Robustheit von BiasEdit bei der Beseitigung von Vorurteilen im Vergleich zu tangentialen Entbiasungs-Baselines und zeigen nur geringe bis keine Auswirkungen auf die allgemeinen Fähigkeiten der Sprachmodelle. Zusätzlich führen wir eine Vorurteilsverfolgung durch, um Vorurteile in verschiedenen Modulen zu untersuchen, und erforschen die Auswirkungen der Vorurteilsbearbeitung auf verschiedene Komponenten von Sprachmodellen.
English
Previous studies have established that language models manifest stereotyped
biases. Existing debiasing strategies, such as retraining a model with
counterfactual data, representation projection, and prompting often fail to
efficiently eliminate bias or directly alter the models' biased internal
representations. To address these issues, we propose BiasEdit, an efficient
model editing method to remove stereotypical bias from language models through
lightweight networks that act as editors to generate parameter updates.
BiasEdit employs a debiasing loss guiding editor networks to conduct local
edits on partial parameters of a language model for debiasing while preserving
the language modeling abilities during editing through a retention loss.
Experiments on StereoSet and Crows-Pairs demonstrate the effectiveness,
efficiency, and robustness of BiasEdit in eliminating bias compared to
tangental debiasing baselines and little to no impact on the language models'
general capabilities. In addition, we conduct bias tracing to probe bias in
various modules and explore bias editing impacts on different components of
language models.Summary
AI-Generated Summary