Оценка смещения без ручных тестовых наборов: перспектива концептуального представления для крупных языковых моделей
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs
May 21, 2025
Авторы: Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen
cs.AI
Аннотация
Смещение в больших языковых моделях (LLM) существенно снижает их надежность и справедливость. Мы сосредоточились на распространенной форме смещения: когда две референтные концепции в концептуальном пространстве модели, такие как полярности настроений (например, "положительное" и "отрицательное"), асимметрично коррелируют с третьей, целевой концепцией, такой как аспект отзыва, модель демонстрирует непреднамеренное смещение. Например, понимание "еды" не должно склоняться к какому-либо конкретному настроению. Существующие методы оценки смещения анализируют поведенческие различия LLM путем создания размеченных данных для различных социальных групп и измерения ответов модели на них, что требует значительных человеческих усилий и охватывает лишь ограниченный набор социальных концепций. Чтобы преодолеть эти ограничения, мы предлагаем BiasLens — фреймворк для анализа смещения без использования тестовых наборов, основанный на структуре векторного пространства модели. BiasLens сочетает векторы активации концепций (CAV) с разреженными автокодировщиками (SAE) для извлечения интерпретируемых представлений концепций и количественно оценивает смещение, измеряя вариацию сходства представлений между целевой концепцией и каждой из референтных концепций. Даже без размеченных данных BiasLens демонстрирует высокую согласованность с традиционными метриками оценки смещения (коэффициент корреляции Спирмена r > 0,85). Более того, BiasLens выявляет формы смещения, которые трудно обнаружить с помощью существующих методов. Например, в смоделированных клинических сценариях страховой статус пациента может привести к тому, что LLM выдаст предвзятые диагностические оценки. В целом, BiasLens предлагает масштабируемую, интерпретируемую и эффективную парадигму для обнаружения смещения, прокладывая путь к улучшению справедливости и прозрачности в LLM.
English
Bias in Large Language Models (LLMs) significantly undermines their
reliability and fairness. We focus on a common form of bias: when two reference
concepts in the model's concept space, such as sentiment polarities (e.g.,
"positive" and "negative"), are asymmetrically correlated with a third, target
concept, such as a reviewing aspect, the model exhibits unintended bias. For
instance, the understanding of "food" should not skew toward any particular
sentiment. Existing bias evaluation methods assess behavioral differences of
LLMs by constructing labeled data for different social groups and measuring
model responses across them, a process that requires substantial human effort
and captures only a limited set of social concepts. To overcome these
limitations, we propose BiasLens, a test-set-free bias analysis framework based
on the structure of the model's vector space. BiasLens combines Concept
Activation Vectors (CAVs) with Sparse Autoencoders (SAEs) to extract
interpretable concept representations, and quantifies bias by measuring the
variation in representational similarity between the target concept and each of
the reference concepts. Even without labeled data, BiasLens shows strong
agreement with traditional bias evaluation metrics (Spearman correlation r >
0.85). Moreover, BiasLens reveals forms of bias that are difficult to detect
using existing methods. For example, in simulated clinical scenarios, a
patient's insurance status can cause the LLM to produce biased diagnostic
assessments. Overall, BiasLens offers a scalable, interpretable, and efficient
paradigm for bias discovery, paving the way for improving fairness and
transparency in LLMs.Summary
AI-Generated Summary