Avaliar Viés sem Conjuntos de Testes Manuais: Uma Perspectiva de Representação de Conceitos para LLMs
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs
May 21, 2025
Autores: Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen
cs.AI
Resumo
O viés em Modelos de Linguagem de Grande Escala (LLMs) compromete significativamente sua confiabilidade e justiça. Nosso foco está em uma forma comum de viés: quando dois conceitos de referência no espaço conceitual do modelo, como polaridades de sentimento (por exemplo, "positivo" e "negativo"), estão assimetricamente correlacionados com um terceiro conceito alvo, como um aspecto de revisão, o modelo exibe um viés não intencional. Por exemplo, a compreensão de "comida" não deve tender a nenhum sentimento específico. Os métodos existentes de avaliação de viés medem as diferenças comportamentais dos LLMs construindo dados rotulados para diferentes grupos sociais e medindo as respostas do modelo entre eles, um processo que requer um esforço humano substancial e captura apenas um conjunto limitado de conceitos sociais. Para superar essas limitações, propomos o BiasLens, uma estrutura de análise de viés sem conjunto de testes baseada na estrutura do espaço vetorial do modelo. O BiasLens combina Vetores de Ativação de Conceitos (CAVs) com Autoencoders Esparsos (SAEs) para extrair representações conceituais interpretáveis e quantifica o viés medindo a variação na similaridade representacional entre o conceito alvo e cada um dos conceitos de referência. Mesmo sem dados rotulados, o BiasLens mostra uma forte concordância com as métricas tradicionais de avaliação de viés (correlação de Spearman r > 0,85). Além disso, o BiasLens revela formas de viés que são difíceis de detectar usando métodos existentes. Por exemplo, em cenários clínicos simulados, o status de seguro de um paciente pode fazer com que o LLM produza avaliações diagnósticas tendenciosas. No geral, o BiasLens oferece um paradigma escalável, interpretável e eficiente para a descoberta de viés, abrindo caminho para melhorar a justiça e a transparência nos LLMs.
English
Bias in Large Language Models (LLMs) significantly undermines their
reliability and fairness. We focus on a common form of bias: when two reference
concepts in the model's concept space, such as sentiment polarities (e.g.,
"positive" and "negative"), are asymmetrically correlated with a third, target
concept, such as a reviewing aspect, the model exhibits unintended bias. For
instance, the understanding of "food" should not skew toward any particular
sentiment. Existing bias evaluation methods assess behavioral differences of
LLMs by constructing labeled data for different social groups and measuring
model responses across them, a process that requires substantial human effort
and captures only a limited set of social concepts. To overcome these
limitations, we propose BiasLens, a test-set-free bias analysis framework based
on the structure of the model's vector space. BiasLens combines Concept
Activation Vectors (CAVs) with Sparse Autoencoders (SAEs) to extract
interpretable concept representations, and quantifies bias by measuring the
variation in representational similarity between the target concept and each of
the reference concepts. Even without labeled data, BiasLens shows strong
agreement with traditional bias evaluation metrics (Spearman correlation r >
0.85). Moreover, BiasLens reveals forms of bias that are difficult to detect
using existing methods. For example, in simulated clinical scenarios, a
patient's insurance status can cause the LLM to produce biased diagnostic
assessments. Overall, BiasLens offers a scalable, interpretable, and efficient
paradigm for bias discovery, paving the way for improving fairness and
transparency in LLMs.