ChatPaper.aiChatPaper

職業バイアスの解消: 米国労働データを用いた基盤となるLLMのバイアス除去

Unboxing Occupational Bias: Grounded Debiasing LLMs with U.S. Labor Data

August 20, 2024
著者: Atmika Gorti, Manas Gaur, Aman Chadha
cs.AI

要旨

大規模言語モデル(LLMs)は、トレーニングデータに埋め込まれた社会的偏見を受け継ぎ、増幅する傾向があり、性別、職業、その他の敏感なカテゴリに関連する有害なステレオタイプを強化する可能性があります。この問題は、バイアスのあるLLMsが不公平な実践をもたらし、採用、オンラインコンテンツのモデレーション、さらには刑事司法制度など、さまざまな分野で社会的不平等を悪化させる可能性があるため、特に問題となります。これまでの研究は、内在的なバイアスを強調するよう設計された特殊なデータセットを使用して、LLMsのバイアスを検出することに焦点を当ててきましたが、米国労働統計局(NBLS)などの権威あるデータセットとこれらの調査結果の相関関係についての調査が著しく不足していました。このギャップを埋めるために、私たちは「バイアスを排除した状態」でLLMsを評価し、生成された出力がNBLSデータで見つかる分布とどのように比較されるかを分析する実証的研究を行います。さらに、NBLSのインスタンスを直接組み込む簡単で効果的なバイアス軽減メカニズムを提案します。私たちの研究は、指示可能、ベース、エキスパートモデルの混合など、7つの異なるLLMsに及び、既存のバイアス検出技術によってしばしば見過ごされる重要なレベルのバイアスを明らかにします。重要なのは、外部データセットに依存しない私たちのバイアス軽減方法が、バイアススコアを大幅に低下させ、より公平で信頼性の高いLLMsを作成するための私たちのアプローチの有効性を示していることです。
English
Large Language Models (LLMs) are prone to inheriting and amplifying societal biases embedded within their training data, potentially reinforcing harmful stereotypes related to gender, occupation, and other sensitive categories. This issue becomes particularly problematic as biased LLMs can have far-reaching consequences, leading to unfair practices and exacerbating social inequalities across various domains, such as recruitment, online content moderation, or even the criminal justice system. Although prior research has focused on detecting bias in LLMs using specialized datasets designed to highlight intrinsic biases, there has been a notable lack of investigation into how these findings correlate with authoritative datasets, such as those from the U.S. National Bureau of Labor Statistics (NBLS). To address this gap, we conduct empirical research that evaluates LLMs in a ``bias-out-of-the-box" setting, analyzing how the generated outputs compare with the distributions found in NBLS data. Furthermore, we propose a straightforward yet effective debiasing mechanism that directly incorporates NBLS instances to mitigate bias within LLMs. Our study spans seven different LLMs, including instructable, base, and mixture-of-expert models, and reveals significant levels of bias that are often overlooked by existing bias detection techniques. Importantly, our debiasing method, which does not rely on external datasets, demonstrates a substantial reduction in bias scores, highlighting the efficacy of our approach in creating fairer and more reliable LLMs.

Summary

AI-Generated Summary

PDF54November 16, 2024