Valutare il Bias senza Set di Test Manuali: Una Prospettiva sulla Rappresentazione Concettuale per i Modelli Linguistici di Grande Dimensione
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs
May 21, 2025
Autori: Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen
cs.AI
Abstract
Il bias nei Large Language Models (LLM) compromette significativamente la loro affidabilità e equità. Ci concentriamo su una forma comune di bias: quando due concetti di riferimento nello spazio concettuale del modello, come le polarità di sentimento (ad esempio, "positivo" e "negativo"), sono correlati in modo asimmetrico con un terzo concetto target, come un aspetto di recensione, il modello manifesta un bias non intenzionale. Ad esempio, la comprensione di "cibo" non dovrebbe inclinarsi verso un particolare sentimento. I metodi esistenti per valutare il bias analizzano le differenze comportamentali degli LLM costruendo dati etichettati per diversi gruppi sociali e misurando le risposte del modello tra di essi, un processo che richiede un notevole sforzo umano e cattura solo un insieme limitato di concetti sociali. Per superare queste limitazioni, proponiamo BiasLens, un framework di analisi del bias senza set di test basato sulla struttura dello spazio vettoriale del modello. BiasLens combina i Vettori di Attivazione Concettuale (CAV) con gli Autoencoder Sparse (SAE) per estrarre rappresentazioni concettuali interpretabili e quantifica il bias misurando la variazione nella similarità rappresentativa tra il concetto target e ciascuno dei concetti di riferimento. Anche senza dati etichettati, BiasLens mostra una forte concordanza con le metriche tradizionali di valutazione del bias (correlazione di Spearman r > 0,85). Inoltre, BiasLens rivela forme di bias difficili da rilevare con i metodi esistenti. Ad esempio, in scenari clinici simulati, lo stato assicurativo di un paziente può portare l'LLM a produrre valutazioni diagnostiche distorte. Nel complesso, BiasLens offre un paradigma scalabile, interpretabile ed efficiente per la scoperta del bias, aprendo la strada al miglioramento dell'equità e della trasparenza negli LLM.
English
Bias in Large Language Models (LLMs) significantly undermines their
reliability and fairness. We focus on a common form of bias: when two reference
concepts in the model's concept space, such as sentiment polarities (e.g.,
"positive" and "negative"), are asymmetrically correlated with a third, target
concept, such as a reviewing aspect, the model exhibits unintended bias. For
instance, the understanding of "food" should not skew toward any particular
sentiment. Existing bias evaluation methods assess behavioral differences of
LLMs by constructing labeled data for different social groups and measuring
model responses across them, a process that requires substantial human effort
and captures only a limited set of social concepts. To overcome these
limitations, we propose BiasLens, a test-set-free bias analysis framework based
on the structure of the model's vector space. BiasLens combines Concept
Activation Vectors (CAVs) with Sparse Autoencoders (SAEs) to extract
interpretable concept representations, and quantifies bias by measuring the
variation in representational similarity between the target concept and each of
the reference concepts. Even without labeled data, BiasLens shows strong
agreement with traditional bias evaluation metrics (Spearman correlation r >
0.85). Moreover, BiasLens reveals forms of bias that are difficult to detect
using existing methods. For example, in simulated clinical scenarios, a
patient's insurance status can cause the LLM to produce biased diagnostic
assessments. Overall, BiasLens offers a scalable, interpretable, and efficient
paradigm for bias discovery, paving the way for improving fairness and
transparency in LLMs.