ChatPaper.aiChatPaper

BiasEdit: Eliminación de sesgos en modelos de lenguaje estereotipados mediante edición del modelo

BiasEdit: Debiasing Stereotyped Language Models via Model Editing

March 11, 2025
Autores: Xin Xu, Wei Xu, Ningyu Zhang, Julian McAuley
cs.AI

Resumen

Estudios previos han establecido que los modelos de lenguaje manifiestan sesgos estereotipados. Las estrategias existentes para mitigar estos sesgos, como reentrenar un modelo con datos contrafactuales, proyección de representaciones y técnicas de prompting, a menudo no logran eliminar eficientemente los sesgos o alterar directamente las representaciones sesgadas internas de los modelos. Para abordar estos problemas, proponemos BiasEdit, un método eficiente de edición de modelos que elimina los sesgos estereotipados de los modelos de lenguaje mediante redes ligeras que actúan como editores para generar actualizaciones de parámetros. BiasEdit emplea una función de pérdida de desviación que guía a las redes editoras para realizar ediciones locales en parámetros parciales de un modelo de lenguaje con el fin de mitigar los sesgos, mientras preserva las capacidades de modelado del lenguaje durante la edición mediante una función de pérdida de retención. Los experimentos en StereoSet y Crows-Pairs demuestran la efectividad, eficiencia y robustez de BiasEdit en la eliminación de sesgos en comparación con líneas base tangenciales de mitigación de sesgos, y muestran un impacto mínimo o nulo en las capacidades generales de los modelos de lenguaje. Además, realizamos un rastreo de sesgos para explorar la presencia de sesgos en varios módulos y estudiamos los impactos de la edición de sesgos en diferentes componentes de los modelos de lenguaje.
English
Previous studies have established that language models manifest stereotyped biases. Existing debiasing strategies, such as retraining a model with counterfactual data, representation projection, and prompting often fail to efficiently eliminate bias or directly alter the models' biased internal representations. To address these issues, we propose BiasEdit, an efficient model editing method to remove stereotypical bias from language models through lightweight networks that act as editors to generate parameter updates. BiasEdit employs a debiasing loss guiding editor networks to conduct local edits on partial parameters of a language model for debiasing while preserving the language modeling abilities during editing through a retention loss. Experiments on StereoSet and Crows-Pairs demonstrate the effectiveness, efficiency, and robustness of BiasEdit in eliminating bias compared to tangental debiasing baselines and little to no impact on the language models' general capabilities. In addition, we conduct bias tracing to probe bias in various modules and explore bias editing impacts on different components of language models.

Summary

AI-Generated Summary

PDF62March 12, 2025