Bias evalueren zonder handmatige testset: een conceptrepresentatieperspectief voor LLM's
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs
May 21, 2025
Auteurs: Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen
cs.AI
Samenvatting
Bias in grote taalmodellen (LLMs) ondermijnt hun betrouwbaarheid en eerlijkheid aanzienlijk. We richten ons op een veelvoorkomende vorm van bias: wanneer twee referentieconcepten in de conceptruimte van het model, zoals sentimentpolariteiten (bijv. "positief" en "negatief"), asymmetrisch gecorreleerd zijn met een derde, doelconcept, zoals een beoordelingsaspect, vertoont het model onbedoelde bias. Bijvoorbeeld, het begrip van "voedsel" zou niet naar een specifiek sentiment moeten neigen. Bestaande methoden voor bias-evaluatie beoordelen gedragsverschillen van LLMs door gelabelde data te construeren voor verschillende sociale groepen en modelreacties daartussen te meten, een proces dat aanzienlijke menselijke inspanning vereist en slechts een beperkte set sociale concepten vastlegt. Om deze beperkingen te overwinnen, stellen we BiasLens voor, een testset-vrij bias-analyseframework gebaseerd op de structuur van de vectorruimte van het model. BiasLens combineert Concept Activatie Vectoren (CAVs) met Sparse Autoencoders (SAEs) om interpreteerbare conceptrepresentaties te extraheren, en kwantificeert bias door de variatie in representatiegelijkenis tussen het doelconcept en elk van de referentieconcepten te meten. Zelfs zonder gelabelde data toont BiasLens een sterke overeenstemming met traditionele bias-evaluatiemetrics (Spearman-correlatie r > 0,85). Bovendien onthult BiasLens vormen van bias die moeilijk te detecteren zijn met bestaande methoden. Bijvoorbeeld, in gesimuleerde klinische scenario's kan de verzekeringsstatus van een patiënt ervoor zorgen dat het LLM bevooroordeelde diagnostische beoordelingen produceert. Over het algemeen biedt BiasLens een schaalbaar, interpreteerbaar en efficiënt paradigma voor biasdetectie, wat de weg vrijmaakt voor het verbeteren van eerlijkheid en transparantie in LLMs.
English
Bias in Large Language Models (LLMs) significantly undermines their
reliability and fairness. We focus on a common form of bias: when two reference
concepts in the model's concept space, such as sentiment polarities (e.g.,
"positive" and "negative"), are asymmetrically correlated with a third, target
concept, such as a reviewing aspect, the model exhibits unintended bias. For
instance, the understanding of "food" should not skew toward any particular
sentiment. Existing bias evaluation methods assess behavioral differences of
LLMs by constructing labeled data for different social groups and measuring
model responses across them, a process that requires substantial human effort
and captures only a limited set of social concepts. To overcome these
limitations, we propose BiasLens, a test-set-free bias analysis framework based
on the structure of the model's vector space. BiasLens combines Concept
Activation Vectors (CAVs) with Sparse Autoencoders (SAEs) to extract
interpretable concept representations, and quantifies bias by measuring the
variation in representational similarity between the target concept and each of
the reference concepts. Even without labeled data, BiasLens shows strong
agreement with traditional bias evaluation metrics (Spearman correlation r >
0.85). Moreover, BiasLens reveals forms of bias that are difficult to detect
using existing methods. For example, in simulated clinical scenarios, a
patient's insurance status can cause the LLM to produce biased diagnostic
assessments. Overall, BiasLens offers a scalable, interpretable, and efficient
paradigm for bias discovery, paving the way for improving fairness and
transparency in LLMs.