ChatPaper.aiChatPaper

BiasFreeBench: un punto de referencia para mitigar el sesgo en las respuestas de modelos de lenguaje de gran escala

BiasFreeBench: a Benchmark for Mitigating Bias in Large Language Model Responses

September 30, 2025
Autores: Xin Xu, Xunzhi He, Churan Zhi, Ruizhe Chen, Julian McAuley, Zexue He
cs.AI

Resumen

Los estudios existentes sobre métodos de mitigación de sesgos en modelos de lenguaje de gran escala (LLMs) utilizan diversas líneas base y métricas para evaluar el desempeño en la eliminación de sesgos, lo que genera comparaciones inconsistentes entre ellos. Además, sus evaluaciones se basan principalmente en la comparación entre las probabilidades de contextos sesgados y no sesgados generados por los LLMs, lo que ignora la brecha entre dichas evaluaciones y los casos de uso reales, donde los usuarios interactúan con los LLMs leyendo las respuestas del modelo y esperan resultados justos y seguros en lugar de probabilidades generadas por los LLMs. Para permitir una evaluación consistente entre los métodos de mitigación de sesgos y cerrar esta brecha, presentamos BiasFreeBench, un punto de referencia empírico que compara de manera integral ocho técnicas principales de mitigación de sesgos (que cubren cuatro métodos basados en *prompting* y cuatro basados en entrenamiento) en dos escenarios de prueba (preguntas y respuestas de opción múltiple y preguntas y respuestas abiertas de múltiples turnos), reorganizando conjuntos de datos existentes en un entorno unificado de consulta-respuesta. Además, introducimos una métrica a nivel de respuesta, el *Bias-Free Score*, para medir el grado en que las respuestas de los LLMs son justas, seguras y antiestereotípicas. Los desempeños en la eliminación de sesgos se comparan y analizan sistemáticamente en dimensiones clave: el paradigma de *prompting* frente al entrenamiento, el tamaño del modelo y la generalización de diferentes estrategias de entrenamiento a tipos de sesgos no vistos. Publicaremos nuestro punto de referencia con el objetivo de establecer un entorno de prueba unificado para la investigación en mitigación de sesgos.
English
Existing studies on bias mitigation methods for large language models (LLMs) use diverse baselines and metrics to evaluate debiasing performance, leading to inconsistent comparisons among them. Moreover, their evaluations are mostly based on the comparison between LLMs' probabilities of biased and unbiased contexts, which ignores the gap between such evaluations and real-world use cases where users interact with LLMs by reading model responses and expect fair and safe outputs rather than LLMs' probabilities. To enable consistent evaluation across debiasing methods and bridge this gap, we introduce BiasFreeBench, an empirical benchmark that comprehensively compares eight mainstream bias mitigation techniques (covering four prompting-based and four training-based methods) on two test scenarios (multi-choice QA and open-ended multi-turn QA) by reorganizing existing datasets into a unified query-response setting. We further introduce a response-level metric, Bias-Free Score, to measure the extent to which LLM responses are fair, safe, and anti-stereotypical. Debiasing performances are systematically compared and analyzed across key dimensions: the prompting vs. training paradigm, model size, and generalization of different training strategies to unseen bias types. We will publicly release our benchmark, aiming to establish a unified testbed for bias mitigation research.
PDF152October 2, 2025