ChatPaper.aiChatPaper

La personalità modella il pregiudizio di genere nelle narrazioni di LLM condizionate da persona in inglese e hindi: un'indagine empirica

Personality Shapes Gender Bias in Persona-Conditioned LLM Narratives Across English and Hindi: An Empirical Investigation

April 26, 2026
Autori: Tanay Kumar, Shreya Gautam, Aman Chadha, Vinija Jain, Francesco Pierri
cs.AI

Abstract

I Large Language Model (LLM) vengono sempre più impiegati in applicazioni basate su personaggi, come l'istruzione, l'assistenza clienti e le piattaforme sociali, dove i modelli vengono istruiti per adottare personaggi specifici durante l'interazione con gli utenti. Sebbene il condizionamento del personaggio possa migliorare l'esperienza e il coinvolgimento dell'utente, solleva anche preoccupazioni su come gli indizi di personalità possano interagire con i pregiudizi e gli stereotipi di genere. In questo lavoro, presentiamo uno studio controllato sulla generazione di storie condizionate da un personaggio in inglese e hindi, in cui ogni storia ritrae un professionista che lavora in India e produce artefatti specifici del contesto (ad esempio, piani di lezione, rapporti, lettere) variando sistematicamente il genere del personaggio, il ruolo professionale e i tratti della personalità dei framework HEXACO e Triade Oscura. Attraverso l'analisi di 23.400 storie generate da sei LLM all'avanguardia, scopriamo che i tratti della personalità sono significativamente associati sia all'entità che alla direzione del pregiudizio di genere. In particolare, i tratti della personalità della Triade Oscura sono costantemente associati a rappresentazioni di genere più stereotipate rispetto ai tratti socialmente desiderabili dell'HEXACO, sebbene queste associazioni varino tra modelli e lingue. I nostri risultati dimostrano che il pregiudizio di genere negli LLM non è statico ma dipendente dal contesto. Ciò suggerisce che i sistemi condizionati da personaggi utilizzati nelle applicazioni del mondo reale possano introdurre danni rappresentativi non uniformi, rafforzando gli stereotipi di genere nei contenuti educativi, professionali o sociali generati.
English
Large Language Models (LLMs) are increasingly deployed in persona-driven applications such as education, customer service, and social platforms, where models are prompted to adopt specific personas when interacting with users. While persona conditioning can improve user experience and engagement, it also raises concerns about how personality cues may interact with gender biases and stereotypes. In this work, we present a controlled study of persona-conditioned story generation in English and Hindi, where each story portrays a working professional in India producing context-specific artifacts (e.g., lesson plans, reports, letters) under systematically varied persona gender, occupational role, and personality traits from the HEXACO and Dark Triad frameworks. Across 23,400 generated stories from six state-of-the-art LLMs, we find that personality traits are significantly associated with both the magnitude and direction of gender bias. In particular, Dark Triad personality traits are consistently associated with higher gender-stereotypical representations compared to socially desirable HEXACO traits, though these associations vary across models and languages. Our findings demonstrate that gender bias in LLMs is not static but context-dependent. This suggests that persona-conditioned systems used in real-world applications may introduce uneven representational harms, reinforcing gender stereotypes in generated educational, professional, or social content.
PDF01April 29, 2026