ChatPaper.aiChatPaper

Penso, dunque sono sotto-qualificato? Un benchmark per valutare il rilevamento di shibboleth linguistici nelle valutazioni di assunzione con LLM

I Think, Therefore I Am Under-Qualified? A Benchmark for Evaluating Linguistic Shibboleth Detection in LLM Hiring Evaluations

August 6, 2025
Autori: Julia Kharchenko, Tanya Roosta, Aman Chadha, Chirag Shah
cs.AI

Abstract

Questo articolo introduce un benchmark completo per valutare come i Large Language Models (LLM) rispondono agli shibboleth linguistici: marcatori linguistici sottili che possono rivelare involontariamente attributi demografici come genere, classe sociale o provenienza regionale. Attraverso simulazioni di interviste accuratamente costruite utilizzando 100 coppie domanda-risposta validate, dimostriamo come i LLM penalizzino sistematicamente determinati schemi linguistici, in particolare il linguaggio di mitigazione, nonostante la qualità equivalente del contenuto. Il nostro benchmark genera variazioni linguistiche controllate che isolano fenomeni specifici mantenendo l'equivalenza semantica, consentendo così la misurazione precisa del bias demografico nei sistemi di valutazione automatizzati. Validiamo il nostro approccio lungo molteplici dimensioni linguistiche, mostrando che le risposte mitigate ricevono valutazioni inferiori in media del 25,6%, e dimostriamo l'efficacia del benchmark nell'identificare bias specifici dei modelli. Questo lavoro stabilisce un framework fondamentale per rilevare e misurare la discriminazione linguistica nei sistemi di intelligenza artificiale, con ampie applicazioni nell'equità nei contesti di decision-making automatizzato.
English
This paper introduces a comprehensive benchmark for evaluating how Large Language Models (LLMs) respond to linguistic shibboleths: subtle linguistic markers that can inadvertently reveal demographic attributes such as gender, social class, or regional background. Through carefully constructed interview simulations using 100 validated question-response pairs, we demonstrate how LLMs systematically penalize certain linguistic patterns, particularly hedging language, despite equivalent content quality. Our benchmark generates controlled linguistic variations that isolate specific phenomena while maintaining semantic equivalence, which enables the precise measurement of demographic bias in automated evaluation systems. We validate our approach along multiple linguistic dimensions, showing that hedged responses receive 25.6% lower ratings on average, and demonstrate the benchmark's effectiveness in identifying model-specific biases. This work establishes a foundational framework for detecting and measuring linguistic discrimination in AI systems, with broad applications to fairness in automated decision-making contexts.
PDF22August 8, 2025