Persoonlijkheid Vormt Genderbias in Persona-gestuurde LLM-narratieven in het Engels en Hindi: Een Empirisch Onderzoek
Personality Shapes Gender Bias in Persona-Conditioned LLM Narratives Across English and Hindi: An Empirical Investigation
April 26, 2026
Auteurs: Tanay Kumar, Shreya Gautam, Aman Chadha, Vinija Jain, Francesco Pierri
cs.AI
Samenvatting
Grote Taalmodellen (GTM'en) worden steeds vaker ingezet in toepassingen waarbij een persona wordt aangenomen, zoals in het onderwijs, de klantenservice en op sociale platformen. Hierbij wordt van de modellen gevraagd om specifieke persona's aan te nemen tijdens interacties met gebruikers. Hoewel conditionering met een persona de gebruikerservaring en betrokkenheid kan verbeteren, roept het ook vragen op over hoe persoonlijkheidskenmerken kunnen samenspelen met gendervooroordelen en stereotypen. In dit werk presenteren we een gecontroleerde studie naar persona-geconditioneerde verhaalgeneratie in het Engels en Hindi, waarbij elk verhaal een werkende professional in India portretteert die context-specifieke artefacten (zoals lesplannen, rapporten, brieven) produceert onder systematisch gevarieerde persona-geslachten, beroepsrollen en persoonlijkheidstrekken uit de HEXACO- en Dark Triad-kaders. Uit een analyse van 23.400 gegenereerde verhalen van zes state-of-the-art GTM'en blijkt dat persoonlijkheidstrekken significant samenhangen met zowel de omvang als de richting van gendervooroordelen. Met name Dark Triad-persoonlijkheidstrekken gaan consistent gepaard met meer genderstereotiepe representaties in vergelijking met sociaal wenselijke HEXACO-trekken, hoewel deze verbanden variëren tussen modellen en talen. Onze bevindingen tonen aan dat gendervooroordelen in GTM'en niet statisch zijn, maar contextafhankelijk. Dit suggereert dat persona-geconditioneerde systemen die in praktijktoepassingen worden gebruikt, ongelijke representatieve schade kunnen veroorzaken, waardoor genderstereotypen in gegenereerde educatieve, professionele of sociale inhoud worden versterkt.
English
Large Language Models (LLMs) are increasingly deployed in persona-driven applications such as education, customer service, and social platforms, where models are prompted to adopt specific personas when interacting with users. While persona conditioning can improve user experience and engagement, it also raises concerns about how personality cues may interact with gender biases and stereotypes. In this work, we present a controlled study of persona-conditioned story generation in English and Hindi, where each story portrays a working professional in India producing context-specific artifacts (e.g., lesson plans, reports, letters) under systematically varied persona gender, occupational role, and personality traits from the HEXACO and Dark Triad frameworks. Across 23,400 generated stories from six state-of-the-art LLMs, we find that personality traits are significantly associated with both the magnitude and direction of gender bias. In particular, Dark Triad personality traits are consistently associated with higher gender-stereotypical representations compared to socially desirable HEXACO traits, though these associations vary across models and languages. Our findings demonstrate that gender bias in LLMs is not static but context-dependent. This suggests that persona-conditioned systems used in real-world applications may introduce uneven representational harms, reinforcing gender stereotypes in generated educational, professional, or social content.