ChatPaper.aiChatPaper

BiasEdit: Entfernung von Vorurteilen in stereotypen Sprachmodellen durch Modellbearbeitung

BiasEdit: Debiasing Stereotyped Language Models via Model Editing

March 11, 2025
Autoren: Xin Xu, Wei Xu, Ningyu Zhang, Julian McAuley
cs.AI

Zusammenfassung

Frühere Studien haben gezeigt, dass Sprachmodelle stereotypisierte Vorurteile aufweisen. Bestehende Strategien zur Entfernung von Vorurteilen, wie das erneute Trainieren eines Modells mit kontrafaktischen Daten, Repräsentationsprojektion und Prompting, scheitern oft daran, Vorurteile effizient zu beseitigen oder die voreingenommenen internen Repräsentationen der Modelle direkt zu verändern. Um diese Probleme zu lösen, schlagen wir BiasEdit vor, eine effiziente Methode zur Modellbearbeitung, die stereotypisierte Vorurteile aus Sprachmodellen entfernt, indem sie leichtgewichtige Netzwerke als Editoren verwendet, um Parameteraktualisierungen zu generieren. BiasEdit nutzt einen Entbiasungsverlust, der die Editornetzwerke anleitet, lokale Bearbeitungen an Teilparametern eines Sprachmodells vorzunehmen, um Vorurteile zu entfernen, während die Sprachmodellierungsfähigkeiten während der Bearbeitung durch einen Beibehaltungsverlust erhalten bleiben. Experimente mit StereoSet und Crows-Pairs demonstrieren die Wirksamkeit, Effizienz und Robustheit von BiasEdit bei der Beseitigung von Vorurteilen im Vergleich zu tangentialen Entbiasungs-Baselines und zeigen nur geringe bis keine Auswirkungen auf die allgemeinen Fähigkeiten der Sprachmodelle. Zusätzlich führen wir eine Vorurteilsverfolgung durch, um Vorurteile in verschiedenen Modulen zu untersuchen, und erforschen die Auswirkungen der Vorurteilsbearbeitung auf verschiedene Komponenten von Sprachmodellen.
English
Previous studies have established that language models manifest stereotyped biases. Existing debiasing strategies, such as retraining a model with counterfactual data, representation projection, and prompting often fail to efficiently eliminate bias or directly alter the models' biased internal representations. To address these issues, we propose BiasEdit, an efficient model editing method to remove stereotypical bias from language models through lightweight networks that act as editors to generate parameter updates. BiasEdit employs a debiasing loss guiding editor networks to conduct local edits on partial parameters of a language model for debiasing while preserving the language modeling abilities during editing through a retention loss. Experiments on StereoSet and Crows-Pairs demonstrate the effectiveness, efficiency, and robustness of BiasEdit in eliminating bias compared to tangental debiasing baselines and little to no impact on the language models' general capabilities. In addition, we conduct bias tracing to probe bias in various modules and explore bias editing impacts on different components of language models.

Summary

AI-Generated Summary

PDF62March 12, 2025