ChatPaper.aiChatPaper

Ich denke, also bin ich unterqualifiziert? Ein Benchmark zur Bewertung der Erkennung linguistischer Shibboleths in Einstellungsverfahren mit LLMs

I Think, Therefore I Am Under-Qualified? A Benchmark for Evaluating Linguistic Shibboleth Detection in LLM Hiring Evaluations

August 6, 2025
papers.authors: Julia Kharchenko, Tanya Roosta, Aman Chadha, Chirag Shah
cs.AI

papers.abstract

Dieses Papier stellt einen umfassenden Benchmark zur Bewertung der Reaktionen von Large Language Models (LLMs) auf linguistische Shibboleths vor: subtile sprachliche Marker, die unbeabsichtigt demografische Attribute wie Geschlecht, soziale Klasse oder regionale Herkunft offenbaren können. Durch sorgfältig konstruierte Interview-Simulationen mit 100 validierten Frage-Antwort-Paaren zeigen wir, wie LLMs bestimmte sprachliche Muster, insbesondere abschwächende Sprache, systematisch benachteiligen, obwohl die inhaltliche Qualität gleichwertig ist. Unser Benchmark erzeugt kontrollierte linguistische Variationen, die spezifische Phänomene isolieren, während die semantische Äquivalenz erhalten bleibt, was eine präzise Messung demografischer Verzerrungen in automatisierten Bewertungssystemen ermöglicht. Wir validieren unseren Ansatz entlang mehrerer linguistischer Dimensionen und zeigen, dass abgeschwächte Antworten durchschnittlich 25,6 % niedriger bewertet werden. Zudem demonstrieren wir die Effektivität des Benchmarks bei der Identifizierung modellspezifischer Verzerrungen. Diese Arbeit etabliert einen grundlegenden Rahmen zur Erkennung und Messung linguistischer Diskriminierung in KI-Systemen, mit breiten Anwendungsmöglichkeiten für Fairness in automatisierten Entscheidungsprozessen.
English
This paper introduces a comprehensive benchmark for evaluating how Large Language Models (LLMs) respond to linguistic shibboleths: subtle linguistic markers that can inadvertently reveal demographic attributes such as gender, social class, or regional background. Through carefully constructed interview simulations using 100 validated question-response pairs, we demonstrate how LLMs systematically penalize certain linguistic patterns, particularly hedging language, despite equivalent content quality. Our benchmark generates controlled linguistic variations that isolate specific phenomena while maintaining semantic equivalence, which enables the precise measurement of demographic bias in automated evaluation systems. We validate our approach along multiple linguistic dimensions, showing that hedged responses receive 25.6% lower ratings on average, and demonstrate the benchmark's effectiveness in identifying model-specific biases. This work establishes a foundational framework for detecting and measuring linguistic discrimination in AI systems, with broad applications to fairness in automated decision-making contexts.
PDF22August 8, 2025