ChatPaper.aiChatPaper

Valutare il Bias senza Set di Test Manuali: Una Prospettiva sulla Rappresentazione Concettuale per i Modelli Linguistici di Grande Dimensione

Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs

May 21, 2025
Autori: Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen
cs.AI

Abstract

Il bias nei Large Language Models (LLM) compromette significativamente la loro affidabilità e equità. Ci concentriamo su una forma comune di bias: quando due concetti di riferimento nello spazio concettuale del modello, come le polarità di sentimento (ad esempio, "positivo" e "negativo"), sono correlati in modo asimmetrico con un terzo concetto target, come un aspetto di recensione, il modello manifesta un bias non intenzionale. Ad esempio, la comprensione di "cibo" non dovrebbe inclinarsi verso un particolare sentimento. I metodi esistenti per valutare il bias analizzano le differenze comportamentali degli LLM costruendo dati etichettati per diversi gruppi sociali e misurando le risposte del modello tra di essi, un processo che richiede un notevole sforzo umano e cattura solo un insieme limitato di concetti sociali. Per superare queste limitazioni, proponiamo BiasLens, un framework di analisi del bias senza set di test basato sulla struttura dello spazio vettoriale del modello. BiasLens combina i Vettori di Attivazione Concettuale (CAV) con gli Autoencoder Sparse (SAE) per estrarre rappresentazioni concettuali interpretabili e quantifica il bias misurando la variazione nella similarità rappresentativa tra il concetto target e ciascuno dei concetti di riferimento. Anche senza dati etichettati, BiasLens mostra una forte concordanza con le metriche tradizionali di valutazione del bias (correlazione di Spearman r > 0,85). Inoltre, BiasLens rivela forme di bias difficili da rilevare con i metodi esistenti. Ad esempio, in scenari clinici simulati, lo stato assicurativo di un paziente può portare l'LLM a produrre valutazioni diagnostiche distorte. Nel complesso, BiasLens offre un paradigma scalabile, interpretabile ed efficiente per la scoperta del bias, aprendo la strada al miglioramento dell'equità e della trasparenza negli LLM.
English
Bias in Large Language Models (LLMs) significantly undermines their reliability and fairness. We focus on a common form of bias: when two reference concepts in the model's concept space, such as sentiment polarities (e.g., "positive" and "negative"), are asymmetrically correlated with a third, target concept, such as a reviewing aspect, the model exhibits unintended bias. For instance, the understanding of "food" should not skew toward any particular sentiment. Existing bias evaluation methods assess behavioral differences of LLMs by constructing labeled data for different social groups and measuring model responses across them, a process that requires substantial human effort and captures only a limited set of social concepts. To overcome these limitations, we propose BiasLens, a test-set-free bias analysis framework based on the structure of the model's vector space. BiasLens combines Concept Activation Vectors (CAVs) with Sparse Autoencoders (SAEs) to extract interpretable concept representations, and quantifies bias by measuring the variation in representational similarity between the target concept and each of the reference concepts. Even without labeled data, BiasLens shows strong agreement with traditional bias evaluation metrics (Spearman correlation r > 0.85). Moreover, BiasLens reveals forms of bias that are difficult to detect using existing methods. For example, in simulated clinical scenarios, a patient's insurance status can cause the LLM to produce biased diagnostic assessments. Overall, BiasLens offers a scalable, interpretable, and efficient paradigm for bias discovery, paving the way for improving fairness and transparency in LLMs.
PDF72May 22, 2025